Podría facilitar tareas que antes requerían mucho tiempo|Crean dispositivo que traduce las imágenes en sonido para ayudar a personas invidentes

Las personas ciegas a menudo sustituyen el sonido por la vista, y algunas pueden incluso recurrir a la ecolocalización, lo que les permite localizar y discriminar objetos por las ondas acústicas. Pero resulta que el sonido puede también adaptarse para transmitir información visual.

Unos investigadores del Instituto de Tecnología de California (Caltech), en Estados Unidos, están aprovechando ese descubrimiento para ayudar a personas ciegas.

Para ello han desarrollado unas gafas inteligentes que convierten las imágenes en sonidos que los usuarios pueden entender de manera intuitiva y sin necesidad de entrenamiento.

Según recoge un artículo publicado en la revista online NewScientist, el dispositivo llamado vOICe (OCI significa “¡Oh, I See!”), consta de un par de gafas oscuras con una pequeña cámara que se conecta a un ordenador. El sistema se basa en un algoritmo del mismo nombre desarrollado en 1992 por el ingeniero holandés Peter Meijer.

La herramienta es un ejemplo de cómo se integra la información percibida por diferentes sentidos para componer un todo. Así, por ejemplo, en una cocina, el cerebro procesa el sonido del aceite que chisporrotea, el aroma de las especias, la estética visual de los alimentos dispuestos en el plato, o el tacto y el gusto de tomar un bocado. Aunque todas estas señales pueden parecer distintas e independientes, en realidad interactúan y se integran dentro de la red cerebral de neuronas sensoriales.

Precisamente son esas conexiones neuronales preexistentes las que proporcionan un punto de partida importante para formar a personas con discapacidad visual en el uso de este tipo de dispositivos que les ayudarán a ver.

Una persona vidente simplemente tiene que abrir los ojos y el cerebro procesa automáticamente las imágenes y la información para que se produzca una interacción perfecta con su entorno. Sin embargo, los dispositivos actuales para ciegos y deficientes visuales no son tan automáticos o intuitivos, pues en general requieren concentración y la atención completa del usuario para interpretar la información sobre lo que le rodea.

Esta nueva perspectiva multisensorial podría facilitar tareas que antes requerían mucho tiempo, permitiendo a los invidentes la adquisición de una nueva funcionalidad sensorial similar a la visión.

Los investigadores realizaron pruebas tanto con personas videntes como invidentes. A los primeros se les pidió emparejar imágenes (rayas, manchas, texturas) con sonidos sin ningún tipo de formación ni instrucciones previas, mientras que los invidentes debían tocar texturas y combinarlas con sonidos.

Ambos grupos mostraron una capacidad intuitiva para relacionar texturas e imágenes con los sonidos asociados. Sorprendentemente, el rendimiento del grupo sin entrenamiento no difirió mucho de los preparados.

Fuente/Tendencias21
Foto/Archivo