Novedades de accesibilidad de Android y Google en 2024

Android accesibility

La semana pasada hablamos de las novedades en accesibilidad de Apple para el 2024. En esta ocasión, toca hablar de su más directa competencia, al menos en el sector móvil. Google también ha presentado sus novedades en accesibilidad para Android y el resto de sus productos. Todas ellas muy interesantes y que, cada vez más, aprietan la carrera por ser la plataforma más accesible.

Como no podía ser de otra forma en este año, la inteligencia artificial forma parte de muchas de estas novedades. Ya sea como nuevas herramientas de asistencia o vitaminas para las ya existentes, su papel será cada vez más destacado. En esa carrera por dejarnos a todos sin trabajo, parece que las compañías tecnológicas se han empeñado en que el primero que se extinga sea el del asistente personal (lo cual, desde aquí, celebramos).

La accesibilidad en Android, cada vez más importante

Gemini, la inteligencia artificial de Google, se integra por completo en Android. Será capaz de ofrecernos información contextual acerca de las aplicaciones que estemos utilizando. Además, será multimodal. Esto significa que no sólo entenderá el texto como método de entrada, sino también imágenes, sonidos o el lenguaje hablado.

En esta integración, destaca la generación de descripciones para TalkBack. Como dicen en el artículo, una persona invidente se topa con unas 90 imágenes sin etiquetar correctamente cada día. Con la ayuda de su modelo de IA, Google pretende salvar esta brecha con descripciones precisas de las imágenes.

Lookout también se nutre de la IA para traer su nuevo modo búsqueda. Podremos seleccionar entre siete categorías de objetos, como asientos o mesas. Al enfocar con la cámara, Lookout detectará ese tipo de objetos y nos dirá en qué dirección y a qué distancia se encuentran. Un ejemplo de aplicación práctica para la vida diaria fuera de las apps. ¡Pero las novedades no se quedan aquí! Las imágenes que capturemos con la cámara usando Lookout ofrecerán de forma automática una descripción generada por inteligencia artificial. Esto nos dará más detalles sobre una imagen y aprender más sobre lo que tenemos delante.

Look to Speak es una aplicación que permite comunicarse a través de nuestro dispositivo. Es muy similar al sistema que usaba Stephen Hawking. Sólo con mirar una serie de frases predefinidas, el dispositivo dirá la frase en voz alta por nosotros. Próximamente, esta app recibirá un nuevo modo de texto libre. Este modo permitirá asociar emojis, imágenes o símbolos con las frases, de modo que la app mejore su accesibilidad para personas con discapacidad cognitiva, dificultades del habla y otros trastornos.

Project Gameface llega a Android. Esta aplicación llegó a ordenadores el año pasado en forma de un cursor virtual que podía controlarse con el movimiento de la cabeza y gestos de la cara. Google ahora pone a disposición de los desarrolladores de Android esta característica para utilizarla en sus aplicaciones. Los usuarios podrán personalizar gestos y movimientos para desencadenar ciertas acciones en las aplicaciones, aunque la integración depende de los desarrolladores.

Google Maps también encuentra su ración de accesibilidad

Para las personas ciegas o con discapacidad visual, Google está expandiendo nuevas características con información detallada para caminar y funciones de lector de pantalla en Lends. Estas nuevas funcionalidades estarán disponibles para todos los idiomas, tanto en Android como en iOS.

Las capacidades de lector de pantalla para Lends en Maps funcionan de manera similar a otras apps existentes. Podremos escuchar el nombre de lo que nos rodea y la distancia que hay hasta cada lugar, de modo que podamos tomar la mejor decisión en cada momento. Todo ello potenciado con la gran base de información disponible en Maps.

La guía detallada por voz es similar a las instrucciones que Maps y otras apps de navegación nos daban hasta ahora. Sin embargo, va un poco más allá. Será capaz de decirnos cuándo vamos en la dirección correcta, reorientarnos en caso de que nos hayamos desviado o cómo cruzar una intersección complicada (¡por fin!).

La información sobre la accesibilidad de lugares también se expande. Ahora podremos consultarla en cualquiera de las versiones de la app, incluida la web. Además, también podremos filtrar las reseñas de los visitantes para buscar información sobre el acceso en silla de ruedas. Los dueños de lugares también podrán ofrecer información sobre el soporte de Auracast para aquellas personas que padecen una discapacidad auditiva.

Otras novedades relevantes

Project Relate es una aplicación que permite establecer un sistema de lenguaje personalizado para personas con capacidades de comunicación no estándar. La app crea un modelo que reconoce palabras importantes para el usuario. Ahora, hay más formas de poder importar texto y frases, como notas en un documento de Google.

Sound Notifications avisa al usuario cuando el dispositivo escucha ciertos sonidos, como una alarma. La app ha sido rediseñada en base al feedback de los usuarios para facilitar su uso y el reconocimiento de sonidos personalizados.

Fuente: GAAD 2024: New AI accessibility updates (blog.google)

Comentarios

Deja una respuesta