Pese a que todavía quedan unos días para la celebración de la WWDC 2023, la Conferencia Mundial de Desarrolladores de Apple, la firma de Cupertino ha presentado nuevas funciones de software centradas en accesibilidad cognitiva, visual, auditiva y de movilidad. Se trata de innovaciones que llegarán a los usuarios a finales de año y que pretenden profundizar en la ambición de Apple de fabricar dispositivos para todo el mundo.
Las herramientas estarán disponibles a final de este año
En esta línea, ha presentado cuatro herramientas destacadas: Acceso asistido, para usuarios con discapacidades cognitivas; Live Speech, orientada a personas con dificultades de habla; Personal Voice, para crear una voz sintetizada y utilizarla en comunicación con otras personas; y Point and Speak, una herramienta identifica texto y lo lee en voz alta para ayudar a los usuarios a interactuar con objetos físicos.
“La accesibilidad es parte de todo lo que hacemos en Apple”, ha apuntado Sarah Herrlinger, Directora Senior de Políticas e Iniciativas de Accesibilidad Global de Apple, en un comunicado. “Estas funciones innovadoras se diseñaron con los comentarios de los miembros de las comunidades de personas con discapacidad en cada paso del camino, para apoyar a un conjunto diverso de usuarios y ayudar a las personas a conectarse de nuevas maneras”.
Acceso asistido
Esta nueva funcionalidad se ha apoyado en el diseño para destacar las características esenciales de algunas aplicaciones básicas de iOS con el objetivo de aligerar la carga cognitiva. Se trata, en definitiva, de versiones simplificadas de determinadas apps -Llamadas, Mensajes, Cámara, Fotos y Música- que ofrecen una interfaz distinta con botones de alto contraste y etiquetas de texto grandes, así como la opción de elegir entre un diseño más visual basado en cuadrículas o un diseño basado en filas para los usuarios que prefieren el texto.
Live Speech
Live Speech, disponible en iPhone, iPad y Mac, permitirá que los usuarios con dificultades para el habla escriban lo que quieren comunicar para que el sistema lo reproduzca en voz alta durante llamadas telefónicas o videollamadas por FaceTime, así como en conversaciones presenciales. Además, brindará la posibilidad de registrar frases de uso habitual para intervenir rápidamente en los diálogos.
Personal Voice
Apple ha desarrollado esta herramienta pensando en personas en riesgo de perder la capacidad de hablar, como pacientes de ELA u otras afecciones. Personal Voice clona la voz de los usuarios para que suene como ellos y puedan utilizarla en el supuesto de que finalmente pierdan la voz.
Según ha explicado la tecnológica, los usuarios pueden crear su voz personal leyendo junto indicaciones de texto aleatorias para grabar 15 minutos de audio en iPhone o iPad. Gracias al aprendizaje automático y a su integración con Live Speech, el sistema es capaz de generar conversaciones con esa voz de tal forma que los usuarios podrán “hablar” cuando se comuniquen con otras personas.
Point and Speak
La función Point and Speak facilitará que los usuarios con discapacidad visual interactúen con objetos físicos que cuenten etiquetas de texto. Lo hará combinando la cámara de los dispositivos, con escáner LiDAR y aprendizaje automático para anunciar con voz el texto de cada botón a medida que los usuarios mueven el dedo por encima de las etiquetas. La herramienta estará integrada en la aplicación Magnifier en iPhone y iPad, y se podrá usar con otras funciones de Magnifier.
Otras funcionalidades
Además, Apple ha dado a conocer tras funcionalidades o características adicionales que se incluirán en las herramientas ya existentes. Por ejemplo, los usuarios podrán personalizar la velocidad a la que Siri les habla, con opciones que van desde 0,8x hasta 2x; mientras que Voice Control agregará sugerencias fonéticas en la edición de texto para que los usuarios que escriben con su voz puedan elegir la palabra correcta entre varias que pueden sonar parecidas.
Registro de xrOS
En paralelo, y a tan solo unos días de la celebración de la WWDC 2023, parece que Apple ha llevado a cabo el registro de “xrOS” en Nueva Zelanda, tal y como ha compartido el periodista especializado en tecnología Parker Ortolani a través de Twitter. Aludiendo a información de la Oficina de Propiedad Intelectual de Nueva Zelanda, el nombre podría ser el que utilice la tecnológica para referirse al sistema operativo de sus gafas de realidad aumentada.
No obstante, Bloomberg ya informó a comienzos de este año del registro del concepto como marca (trademark) a través de la empresa Deep Dive LLC. La diferencia en esta ocasión es que se trataría del nombre concreto (wordmark) “xrOS”, que hace referencia al término anglosajón extended reality, es decir, realidad extendida, que combina tanto realidad virtual como aumentada.