Así es Google y un equipo de Google Research está desarrollando un modelo de detección en tiempo real basándose en poses para las personas que tiene esta discapacidad.
Google trabaja con su tecnología para hacer más accesible las videollamadas para la gente que tenga la discapacidad auditiva o otras.
La mayor parte de los servicios de videollamadas tienen funciones para descartar a personas que hablan en voz alta en las reuniones grupales y es muy incómodo para este grupo ya que pueden presentar problemas de audición y mayormente se comunican con lenguaje de señas
El equipo de Google Research a desarrollado el modelo de detección de lenguaje de señas en tiempo real basándose en las poses para saber que dicen.
Este sistema emplea un diseño ligero para reducir la cantidad de carga en el CPU para no afectar la calidad de video llamadas.
La función para identificar el lenguaje se llama POSENET reducirá los datos de la imagen con una serie de marcadores en los ojos,nariz,manos,hombros también detectará el movimiento.
El modelo de Google presenta cerca del 80 por ciento de efectividad detectando a las personas que hablan lengua de signos cuando emplea tan solo 0,000003 segundos de datos, mientras que si se usan los 50 fotogramas anteriores la efectividad asciende hasta el 83,4 por ciento.
Todo esto y la red 5G podrá hacer realidad está función ya que esto ocupará internet y sera en tiempo real.
Comentarios
Publicar un comentario