Accesibilidad e inclusión a través de la tecnología

Accesibilidad e inclusión a través de la tecnología Un mundo al alcance de todos

Crédito: WeWalk

En los últimos años, se han realizado mejoras significativas en la tecnología, lo cual ha dado lugar a herramientas y servicios asistivos más avanzados que permiten a las personas con discapacidades sensoriales llevar una vida más independiente y plena. Si bien siempre habrá una necesidad de dispositivos asistivos tradicionales como los bastones, señalización en Braille para personas con discapacidad visual o servicios de subtitulado para personas con discapacidad auditiva, estos nuevos dispositivos, aplicaciones y enfoques tecnológicos subyacentes ayudan a crear un mundo más inclusivo.

El número de personas que se benefician de las mejoras tecnológicas en la tecnología asistiva es notable. Según la Agencia Internacional para la Prevención de la Ceguera, 43 millones de personas en todo el mundo vivían con ceguera hasta 2021. Mientras tanto, la pérdida de audición afecta actualmente a más de 1.500 millones de personas en todo el mundo, de las cuales 430 millones tienen niveles moderados o más altos de pérdida de audición en su mejor oído, según el Informe Mundial sobre la Audición publicado en 2021 por la Organización Mundial de la Salud. Además, la Fundación de Sillas de Ruedas ha identificado a más de 131 millones de personas en todo el mundo que requieren una silla de ruedas.

Por lo general, las tecnologías asistivas están diseñadas para permitir que las personas con discapacidad sensorial se comuniquen más fácilmente con otras personas, adquieran información a través de modalidades alternativas o naveguen de manera más fácil e independiente en espacios físicos. Las soluciones más eficientes también son capaces de servir como soluciones completamente inclusivas que satisfacen las necesidades tanto de las personas con discapacidad sensorial como de la población en general.

Volver al principio

Comunicación continua en privacidad

Un principio fundamental subyacente de la tecnología asistiva actual es permitir una mayor independencia sin requerir una intervención activa de humanos u otras tecnologías de terceros que creen fricción e ineficiencia. Un ejemplo es Nagish, una aplicación móvil que convierte las llamadas telefónicas de audio en texto en tiempo real. Nagish creó una aplicación móvil que convierte texto en voz y voz en texto en tiempo real, de modo que un lado de una llamada telefónica puede escribir y leer mientras el otro lado escucha y habla, sin requerir un traductor humano en ninguno de los lados de la conversación. El servicio utiliza una combinación de procesamiento de lenguaje natural y motores de subtitulado desarrollados internamente para proporcionar conversiones en tiempo real, con una tasa de precisión superior al 96%.

uf1.jpg Figura. Un niño que ha perdido completamente la visión utiliza el OrCam MyEye 2 para interpretar texto escrito y leer en voz alta.

“Si eres sordo, básicamente tienes tres opciones, pero todas se reducen a una persona en el medio que traduce entre tú y una persona oyente”, dice Tomer Aharoni, cofundador y director ejecutivo de Nagish. “Ya sea a través del texto a voz o del voz a texto, a través de traductores manuales [servicios], o a través de servicios de video-relay, que son intérpretes de lenguaje de señas que convierten entre lenguaje de señas y habla, no tienes la capacidad de tener una conversación privada. Y queríamos cambiar eso”.

Para maximizar la precisión, Nagish también incorpora tecnología de subtitulado externa y brinda a los usuarios la capacidad de resaltar palabras o frases en una transcripción que se haya transcrito incorrectamente. Aharoni dice: “No accedemos a los subtítulos ni utilizamos transcripciones de llamadas para entrenar nuestros sistemas, pero tenemos un conjunto de heurísticas configuradas para garantizar que [las tasas de precisión] sean superiores a un cierto umbral”.

Para las personas con discapacidad visual, OrCam ha desarrollado MyEye, un dispositivo activado por voz que se adapta a prácticamente cualquier gafa y utiliza una cámara unida a tecnología de IA, incluido el reconocimiento facial y de objetos y la comprensión del lenguaje natural, para leer textos de un libro, pantalla de teléfono inteligente o cualquier otra superficie, así como para reconocer caras, identificar objetos o transmitir información visualmente en tiempo real y sin conexión. Esto permite que las personas con discapacidad visual interactúen y adquieran información en cualquier ubicación, incluso en aquellas donde no se utilice señalización en Braille o indicaciones de audio.

Volver al principio

Información mejorada a través de la tecnología de movilidad inteligente

Otros desarrolladores de tecnología se centran en mejorar la capacidad de ayudar a las personas con discapacidades sensoriales a navegar de manera independiente en espacios públicos, ya sea mediante la adición de funciones avanzadas a los bastones blancos tradicionales o mediante la utilización de aplicaciones de teléfono inteligente con IA.

WeWALK (wewalk.io/en) es un dispositivo inteligente que se acopla a un bastón blanco tradicional y utiliza un sensor ultrasónico para detectar objetos por encima del nivel del pecho. Al emparejarse con la aplicación móvil de WeWALK a través de Bluetooth, el usuario puede interactuar con las aplicaciones móviles utilizando el panel táctil integrado de WeWALK, sin necesidad de sostener su teléfono. En la actualidad, WeWALK está integrado con Google Maps y Amazon Alexa, y la empresa anunció una asociación en 2021 con la API de tránsito de Moovit (https://moovitapp.com/nycnj-121/poi/en), que permite a los usuarios recibir la mejor información de enrutamiento para cada viaje basada en datos recopilados de forma colaborativa, de modo que los usuarios con discapacidad visual puedan desplazarse de manera segura hacia, en y desde el transporte público.

Los desarrolladores de tecnología se centran en mejorar la capacidad de ayudar a las personas con discapacidad sensorial a desplazarse de forma independiente en espacios públicos.

El SmartCane (https://assistech.iitd.ac.in/smartcane.php), un producto de apoyo desarrollado por Assistech, un laboratorio fundado en 2007 en el Instituto Indio de Tecnología de Delhi, es otro dispositivo de detección de obstáculos que utiliza sensores ultrasónicos sin contacto para alertar al usuario mediante vibración si se acerca a objetos hasta tres metros de distancia, en comparación con la limitación típica de un metro de distancia de un bastón blanco tradicional. El SmartCane, utilizado por más de 100,000 personas, es especialmente útil en la India, donde es común encontrar animales callejeros compartiendo espacio con los humanos, junto con otros peligros habituales como bordillos, ramas bajas o bicicletas o carros estacionados.

Otros investigadores han adoptado el enfoque de utilizar la robótica para complementar las soluciones de orientación tradicionales, como los perros guía de asistencia. AlphaDog (http://www.weilan.com/en/robots.html) es un robot cuadrúpedo desarrollado por Weilan, una startup con sede en China fundada en 2019, que incorpora inteligencia artificial, IoT (Internet de las cosas), comunicaciones 5G, realidad virtual, conducción autónoma e inteligencia de enjambre. El robot cuenta con sensores que identifican y evitan obstáculos en el entorno; puede ser programado para navegar en entornos conocidos (pero puede encontrar dificultades de navegación y maniobrabilidad en entornos desconocidos).

Mientras tanto, la empresa israelí Seamless Vision ha desarrollado Buddy (https://vimeo.com/425528955), un robot autónomo que utiliza diferentes sensores para detectar obstáculos estáticos y dinámicos en entornos urbanos. Si bien Buddy puede guiar a los usuarios a ubicaciones conocidas o mapeadas previamente en áreas metropolitanas, es más adecuado para superficies planas. Buddy también solo puede proporcionar información básica sobre su entorno y tiene limitaciones en su capacidad para detectar las intenciones del usuario.

Volver arriba

Combinación de navegación e información

Para las personas con discapacidades sensoriales, la capacidad de desplazarse de un lugar a otro de manera segura y eficiente puede ser ayudada mediante el uso de aplicaciones móviles, que no solo pueden proporcionar la ubicación actual del usuario y rutas seguras (evitando desafíos como escaleras, rampas o zonas de alta congestión), sino también información adicional sobre puntos de interés, como la ubicación de instalaciones de baños públicos, detalles específicos sobre servicios comerciales y la ubicación de infraestructuras críticas, como salidas de emergencia.

NavCog (https://apps.apple.com/us/app/navcog/id1042163426) es una aplicación para iPhone que ofrece navegación en interiores mediante el uso de balizas Bluetooth para proporcionar información sobre la ubicación, diseñada específicamente para ayudar a las personas con discapacidad visual a explorar el mundo sin visión. Al conectar la aplicación a una base de datos que contiene un mapa de la instalación, junto con puntos de interés, escaleras, escaleras mecánicas y otras características, las aplicaciones de navegación pueden proporcionar datos de navegación verbal, descripciones y iconos de texto, e información de enrutamiento adaptativa y optimizada para garantizar que las personas con discapacidades puedan desplazarse de manera segura dentro de un edificio o una ubicación. Esto también resulta útil para personas que no están familiarizadas con la distribución de edificios o lugares complejos, como universidades, aeropuertos, hospitales o distritos comerciales. Hasta la fecha, NavCog ha sido probado en Japón en el área de Nihonbashi Muromachi (COREDO Muromachi), el Aeropuerto Internacional de Narita y el Centro Cívico de Toyosu, así como en el Allegheny General Hospital y el Museo Andy Warhol, ambos en Pittsburgh, PA.

Los beacons Bluetooth también se utilizan para alimentar Evelity ( https://www.evelity.com ), una aplicación móvil disponible para dispositivos iOS y Android que permite a las personas con discapacidad sensorial acceder a información de ubicación, información de puntos de interés y soporte de navegación. Dependiendo de las necesidades del usuario, la interfaz utilizada puede ser diferente (se utilizan indicaciones de audio para personas con discapacidad visual en comparación con direcciones de texto e iconos para personas sordas), pero la funcionalidad final tiene como objetivo ayudar a informar al usuario.

Las aplicaciones de teléfonos inteligentes pueden ayudar a las personas con discapacidad sensorial a navegar de un lugar a otro de manera segura y eficiente.

La instalación de una aplicación inclusiva como Evelity puede beneficiar a todos los visitantes o usuarios de un edificio que deseen acceder a una experiencia de navegación más personalizada, según Sylvain Denoncin, director ejecutivo de la compañía. “Por ejemplo, hicimos una instalación piloto para el metro de Lyon en Francia, y dijeron: ‘vale, esto es genial para personas con discapacidad visual o personas en silla de ruedas'”, recuerda Denoncin. “Pero en términos de inversión, también es bueno porque será útil para los turistas, ya que la aplicación puede funcionar en su propio idioma”, creando una mejor experiencia general para los visitantes.

Mientras tanto, Waymap Ltd., con sede en el Reino Unido ( https://www.waymap.com/en ), ofrece una aplicación móvil que prescinde del uso de beacons, en su lugar, se basa en un algoritmo basado en sensores de dispositivos propietarios para proporcionar tecnología inclusiva de navegación basada en la ubicación, tanto en interiores como en exteriores, dentro de sus ubicaciones asociadas. Waymap se basa en planos de diseño asistido por computadora (CAD) existentes de un espacio y un recorrido físico de 360 grados utilizando un escaneo LiDAR (detección y alcance de luz) de la instalación para identificar y mapear puntos de interés clave, caminos y corredores, y cualquier otra característica física que necesite ser capturada, incluyendo cambios de nivel, cambios de superficie y áreas restringidas. Todas las características se geolocalizan a coordenadas específicas y se crean nuevos mapas inclusivos que se adhieren a las normas de la Unión Internacional de Telecomunicaciones (UIT) de las Naciones Unidas y la Asociación de Tecnología de Consumo de Estados Unidos (CTA), específicamente a las normas ITU-T F.921 y CTA-2076, que cubren la navegación basada en el sonido para personas con discapacidad visual y baja visión.

A continuación, aprovechando los sensores estándar incorporados en los teléfonos inteligentes (como la brújula interna, el podómetro y el acelerómetro), la aplicación determina la posición de una persona dentro del espacio. Un algoritmo propietario en la aplicación mide dónde se encuentra un usuario en comparación con su paso anterior, luego calcula la probabilidad de dónde podría ser su siguiente paso posible, lo que permite a los usuarios navegar dentro de un espacio basándose en datos de geolocalización dentro del entorno (como la presencia de obstrucciones o rutas populares hacia puntos de interés).

“Básicamente, nuestro algoritmo convierte su teléfono en un dispositivo de navegación preciso”, dice Tom Pey, CEO y fundador de Waymap. “Lo hace midiendo dónde estás en comparación con tu paso anterior, en lugar de medir dónde estás en relación con un satélite o un beacon Bluetooth”. Según Pey, a medida que más personas utilizan la aplicación, el algoritmo seguirá aprendiendo las mejores rutas y mejorará aún más en la predicción de los posibles caminos de los usuarios y las rutas hacia puntos de interés específicos.

Waymap, que se ha implementado en el sistema de metro de Washington, D.C., y está en pruebas de concepto en sistemas de tránsito en Los Ángeles, Singapur, Madrid, España y Brisbane, Australia, puede calcular la ubicación de un usuario con una precisión de un solo metro y direccionalmente dentro de un rango de 10 grados. La estrecha integración de un edificio totalmente mapeado y la aplicación Waymap también permite que los cambios planificados o imprevistos sean tenidos en cuenta por el personal del edificio o del sistema de tránsito.

* Más lecturas

Cómo la navegación con beacons está cambiando la navegación en interiores https://bit.ly/3oCV3C7

Datos globales sobre ceguera – Agencia Internacional para la Prevención de la Ceguera https://bit.ly/3N48Jaw

WeWALK: Bastón inteligente revolucionario para personas con discapacidad visual https://www.youtube.com/watch?v=Rr9RaisO11E

Análisis de la necesidad de sillas de ruedas, Wheelchair Foundation https://bit.ly/43QKOKP

Informe Mundial sobre la Audición, Organización Mundial de la Salud https://www.who.int/publications/i/item/9789240021570

Volver arriba

Autor

Keith Kirkpatrick es director de investigación en Futurum Group y tiene sede en Nueva York, NY, EE. UU.

©2023 ACM 0001-0782/23/11

Se otorga permiso para realizar copias digitales o impresas de esta obra, total o parcialmente, para uso personal o en el aula sin cargo alguno, siempre y cuando no se realicen ni distribuyan copias con fines de lucro o ventaja comercial, y las copias lleven esta notificación y la cita completa en la primera página. Debe respetarse el derecho de autor de los componentes de esta obra que pertenezcan a terceros distintos a ACM. Se permite la abstracción con reconocimiento. Para copiar de otro modo, republicar, publicar en servidores o redistribuir en listas, se requiere un permiso previo específico y/o una tarifa. Solicitar permiso para publicar a través de o enviar un fax al (212) 869-0481.

La Biblioteca Digital es publicada por la Association for Computing Machinery. Derechos de autor © 2023 ACM, Inc.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Investigación

Investigadores del MIT introducen la técnica de Restart Sampling para mejorar los procesos generativos.

Los modelos generativos profundos basados en ecuaciones diferenciales han surgido recientemente como herramientas de ...

Inteligencia Artificial

Este artículo de IA propone un método novedoso basado en gradientes llamado Cones para analizar e identificar las neuronas conceptuales en modelos de difusión

La compleja estructura del cerebro le permite realizar tareas cognitivas y creativas asombrosas. Según la investigaci...

Aprendizaje Automático

Conoce Paella Un Nuevo Modelo de IA Similar a Difusión que Puede Generar Imágenes de Alta Calidad Mucho Más Rápido que Usando Difusión Estable.

Durante los últimos 2-3 años, ha habido un aumento fenomenal en la calidad y cantidad de investigación realizada en l...

Inteligencia Artificial

Apoyando la sostenibilidad, la salud digital y el futuro del trabajo

La Iniciativa de Convergencia MIT y Accenture para la Industria y la Tecnología selecciona tres nuevos proyectos de i...