Será una aplicación de traducción de idiomas signo siempre convertido en una realidad?

Imagine un mundo en el que se han ido las barreras entre las personas sordas y la audiencia. Un mundo donde las conversaciones fluyen de manera fluida entre los que oyen el sonido, y los que no lo hacen. Podría convertirse en ese mundo real en un futuro próximo?

En junio, un grupo de estudiantes de marketing en la Escuela de Comunicación Berghs desarrolló un video concepto para un producto ficticio llamado Google Gesture. El producto incluye una pulsera ponible y una aplicación móvil que utiliza la electromiografía para leer los movimientos de los músculos de una persona sorda haciendo señas. Entonces, el sistema pasa esas señales a la aplicación, lo que se tradujo en una de esas señales de voz digitalizada y hablaría de la persona.

Viendo el vídeo de marketing falsa fue muy emocionante. Tan emocionante, de hecho, que los principales sitios de tecnología como Mashable, Slashgear y otros anunciada originalmente el producto como real, y más tarde tuvo que contar la reclamación y pedir perdón por su error. Se ha producido un error extraño, teniendo en cuenta que en realidad es un producto de Google llamado Google Gesture Search, que permite dibujar gestos en la pantalla del móvil a los contactos, favoritos y más buscar.

Independientemente, el concepto de los estudiantes Berghs presenta una idea notable, lo que lleva a la pregunta - ¿podría ser posible crear una aplicación como de verdad?

Posible es traducir el lenguaje de signos?

Disección del concepto de marketing a nivel técnico revela que la tecnología mediante electromiografía (EMG) para “sentido” lenguaje de signos no es tan descabellada en absoluto. Ya en 2009, los investigadores de la Universidad de Washington fueron capaces de utilizar múltiples sensores EMG para decodificar los movimientos musculares y convertirlos en brazos y manos gestos reales.

Los investigadores construyeron una realidad completa “biblioteca de reconocimiento de gestos”, identificando qué señales de los músculos, que representaban gesto. La investigación demuestra que este tipo de tecnología está disponible y listo para aplicar en el tipo de aplicación a los estudiantes Berghs imaginaron.

Así que alguien ha logrado esto en realidad todavía? Si no es así, ¿por qué no hay nadie haciendo, y la disponibilidad para las personas sordas y con discapacidad auditiva con la capacidad de comunicarse con cualquier persona en el mundo a través de la lengua de signos?

El futuro de la tecnología en tiempo real Traducción

La verdad es que alguien es, de hecho, trabajando en tal tecnología de traducción de la lengua de signos en tiempo real.

inicio de sesión idioma1

Hay una empresa llamada SpeechTrans, que ha estado empujando los límites de tecnologías de la traducción en años recientes. SpeechTrans trabaja con socios de tecnología para producir algunos de los más notables los servicios de traducción de idiomas en tiempo real en el mercado hoy en día. Estos son los servicios que se traducen chat de texto chat de texto, voz a texto, e incluso la traducción de idiomas de voz a voz en tiempo real a través de aplicaciones para teléfonos móviles y de escritorio.3 mejores herramientas de traducción de Google Translate3 mejores herramientas de traducción de Google TranslateLee mas

Para explorar si una tecnología de lenguaje de señas podría ser una realidad en un futuro próximo, MakeUseOf se sentó con el CEO John SpeechTrans Frei y COO Yan Auerbach discutir esta nueva e innovadora tecnología de traducción y cuán lejos en el futuro podría ser.

El desarrollo de un lenguaje de señas de traducción de aplicaciones

MUO: ¿Es posible hacer el tipo de lenguaje de signos para la traducción del habla que los estudiantes Berghs retratados en este concepto Gesto de vídeo de Google?

CEO SpeechTrans - John Frei

John: Yo diría que la tecnología está disponible para desarrollar eso. Actualmente estamos trabajando con Microsoft e Intel en la exploración de algunas de las tecnologías que están próximos a cabo con, en términos de hardware y software. Tenemos la visión de la capacidad de utilizar esa tecnología para reconocer el lenguaje de signos y luego convertir eso en el habla y la salida de audio.

MUO: Usted está trabajando activamente en el desarrollo de la tecnología que en este momento?

Yan: Por lo tanto, hubo un cliente que estaba utilizando nuestro software, y pensó que sería maravilloso si pudiéramos modificarlo para que las personas que tienen problemas de audición pueden utilizar para hacer llamadas telefónicas desde nuestra aplicación, para comunicarse sin la necesidad de signo lengua cuando están en persona, o sin la necesidad de un servicio de tipo TTY para llamadas telefónicas. Desarrollamos ese producto, y con fondos de Microsoft e Intel, pusimos en marcha para el SpeechTrans personas con discapacidad auditiva en Windows 8.1, que elimina la necesidad de que el lenguaje de signos.

MUO: ¿Cómo funciona la aplicación “en persona”?

Yan: Hay un modo de escucha, y no hay un modo de entrada. Así, cuando alguien está hablando, se pone en modo de escucha y de TI tipos todo lo que tenga que dicen en la pantalla en texto. Entonces, cuando responde de vuelta, lo escribe y luego se habla en voz alta lo que escribe. Con el teléfono, que acaba de marcar el número de teléfono de cualquier persona, y cuando contestan el teléfono, se vuelve como un mensaje instantáneo. Lo que hablan, que se obtiene como un mensaje instantáneo. Entonces, lo que se ingrese se habla en voz alta a través del teléfono. Esa es la primera fase.

Futuro próximo traducción de lenguaje de señas

MUO: ¿Qué tecnologías puede esperar la gente para ver en el futuro cercano? ¿Cuál es la siguiente fase?

John: Hacemos Envision - para alguien que sólo tiene la capacidad de utilizar el lenguaje de signos - ser capaz de hacer eso delante de un dispositivo, como un teléfono, PC o portátil. Intel tiene un nuevo sistema de cámaras, y Microsoft lo hace así con el Kinect, que hace el reconocimiento de gestos.

MUO: ¿Cómo es esto mejor que el concepto de banda para el brazo planteada por los estudiantes Berghs?

inicio de sesión language3

Yan: Básicamente, el nuestro va a trabajar de una manera en que no requiere que se ponga nada en su brazo. Esta función detecta 64 puntos en su mano. Estamos utilizando la versión beta de la cámara REALSENSE de Intel. Así que no sólo vamos a ser capaces de reconocer la totalidad del lenguaje de signos, y múltiples dialectos de la lengua de signos, sino que también seremos capaces de reconocer las emociones, expresiones faciales, y otros matices pequeños y luego convertir eso en palabras habladas, así .

Eso no exigen el uso de guantes o cualquier cosa. Nos estamos centrando en ese mercado específicamente porque simplemente nos gusta ayudar a la gente en general. No sólo queremos ayudar a la gente que quiere hablar en muchos idiomas diferentes, pero también queremos ayudar a las personas que no pueden hablar en cualquier idioma. La tecnología existe, y no hay ninguna razón de su calidad de vida debe ser diferente de la nuestra.

John: Es un concepto viable. Es sólo una entrada y de salida diferente. Algunas de las conversaciones que hemos tenido con Microsoft acerca de algunas de las futuras tecnologías es que alguien en realidad podría implantar un microchip en su cuello, y se lee directamente sus patrones de ondas cerebrales. Así que si usted está ayudando a las personas que no pueden comunicarse, en realidad nos veríamos algo así como un despliegue de tres fases.

El año pasado, hubo un grupo de estudiantes que salió con un prototipo de trabajo de un guante que estaba conectado a un ordenador. Los gestos que ha realizado con el guante así, se reconocerán y se convierten en lenguaje de signos. Por lo que ya tienen la capacidad con la tecnología actual.

Nuestra visión es que realmente no queremos crear los accesorios como las bandas de brazo que tiene que poner. Sólo debe ser natural y de flujo libre para ellos [la gente que hace el lenguaje de signos] para hacerlo delante de su cámara de vídeo. 90% de lo que se dice en la comunicación es en realidad en su lenguaje corporal. La posibilidad de acceder de reconocimiento facial, gestos y emociones, vamos a ser capaces de utilizar esos datos, así que asegurarse de que la traducción y lo que están tratando de transmitir se expresa en la forma correcta.

MUO: ¿Es Intel dentro del rango de 5 año de tener esa tecnología de reconocimiento de la lengua de signos?

John: Intel definitivamente tiene una gran cantidad de recursos disponibles. Su tecnología y su software está progresando a un ritmo en el que podemos hacer que esto sucede con bastante rapidez.

MUO: ¿Tiene un marco de tiempo para cuando usted está esperando para obtener esta tecnología en el mercado?

John: Para el lenguaje de signos, que es aproximadamente de 12 a 18 meses.

MUO: ¿Hay alguien más por ahí tiene otra cosa como esta para la traducción de lenguaje de señas?

John: Vi un vídeo de YouTube de IBM haciendo un prototipo en la que alguien estaba haciendo el lenguaje de signos, pero fue una prueba de concepto y sólo tenía como tres o cuatro palabras que reconoció. Tenemos más de quinientas mil palabras que estamos planean extenderla con, por lo que va a llevarlo a un nivel totalmente distinto.

Conclusión

Mientras que la visión que los estudiantes de Berghs idearon podría no convertirse en la aplicación de traducción de idiomas signo del futuro, eso no quiere decir que tal concepto no sucederá. Lo que el trabajo realizado en SpeechTran, Intel y Microsoft demuestra que la traducción es la lengua de signos es casi seguro que se convertirá en una verdadera tecnología dentro de pocos años. Es muy probable que no implicará bandas engorrosos brazo, pero en cambio no es más que una cámara de vídeo especial y una aplicación móvil.

A través de la magia del gesto y reconocimiento facial, esta aplicación de traducción de idiomas signo del futuro promete revolucionar por completo la comunicación interpersonal para cientos de miles de personas con discapacidad auditiva o con dificultades auditivas personas en todo el mundo.5 mejores recursos para Mac & Dispositivo de Apple Los usuarios con discapacidad5 mejores recursos para Mac & Dispositivo de Apple Los usuarios con discapacidadLee mas

Artículos Relacionados