Las nuevas funciones de accesibilidad de Apple: etiquetas nutricionales para apps y braille integrado

La compañía de Cupertino anunció en Mayo que convertirá el App Store en el primer mercado de aplicaciones con información transparente sobre accesibilidad. La movida llega justo cuando 1 de cada 6 personas en el mundo vive con alguna discapacidad.

Avatar de

Por décadas, descargar una app ha sido un acto de fe para personas con discapacidad. ¿Funcionará con mi lector de pantalla? ¿Podré navegar sin usar el mouse? ¿Los subtítulos estarán disponibles? Hasta ahora, la única forma de saberlo era descargando, probando y, muchas veces, frustrándose. Apple acaba de cambiar esa realidad.

Las "etiquetas nutricionales" que faltaban en tecnología

Imagina ir al supermercado y que ningún producto tenga información sobre sus ingredientes. Así ha sido el App Store para millones de usuarios. Pero eso termina este año con las Accessibility Nutrition Labels (Etiquetas Nutricionales de Accesibilidad).

Igual que revisas las calorías o los alérgenos en un paquete de galletas, ahora podrás saber si una app funciona con VoiceOver, si tiene buen contraste visual, si admite control por voz o si incluye subtítulos. Todo antes de descargar.

"Los consumidores merecen saber si un producto será accesible para ellos desde el comienzo", dice Eric Bridges, CEO de la Fundación Americana para Ciegos. Y tiene razón: según la OMS, aproximadamente 1.300 millones de personas viven con alguna discapacidad significativa. Eso es casi el 16% de la población mundial.

Braille en tu bolsillo (literalmente)

Pero Apple no se quedó solo en las etiquetas. Entre los anuncios más potentes está Braille Access, una función que convierte tu iPhone, iPad, Mac o hasta el Apple Vision Pro en un anotador braille completo.

¿Qué significa esto? Que ahora puedes tomar notas en braille, hacer cálculos matemáticos usando el código Nemeth (el sistema braille para matemáticas), e incluso abrir libros en formato BRF directamente desde tu dispositivo. Todo conectando un teclado braille.

Y aquí viene lo inteligente: incluye un lanzador de apps que funciona completamente en braille. Nada de andar navegando con VoiceOver entre menús visuales. Escribes en tu dispositivo braille y listo.

La lupa que faltaba en Mac

Desde 2016, los usuarios de iPhone y iPad han podido usar Lupa para ampliar el mundo que los rodea. Ahora esa función llega finalmente a la Mac.

La novedad es que puedes conectar múltiples cámaras: la de tu iPhone por Continuidad de Cámara, una webcam USB o usar Vista del Escritorio. ¿Para qué? Para ampliar una presentación en una pantalla mientras simultáneamente lees un documento físico con otra cámara.

La función se integra con el nuevo Lector de Accesibilidad, un modo de lectura universal que funciona en todo el sistema operativo. Diseñado especialmente para personas con dislexia o baja visión, permite personalizar fuentes, colores, espaciado y hasta convertir texto físico del mundo real en formato digital legible.

Próximamente este año, una nueva Lupa para la Mac hará que el mundo físico sea más accesible para los usuarios con baja visión.

Tu Apple Watch ahora es intérprete simultáneo

Una de las actualizaciones más prácticas es la llegada de Escucha en Vivo al Apple Watch. La función convierte tu iPhone en un micrófono remoto que transmite audio a tus AirPods o audífonos, pero ahora puedes ver los subtítulos en tiempo real en tu reloj.

¿La ventaja? Controlar todo desde tu muñeca. Estás en una reunión, alguien habla del otro lado del salón y no necesitas sacar tu teléfono ni levantarte. Solo miras tu Apple Watch y lees lo que están diciendo.

Funciona perfecto con los AirPods Pro 2, que desde hace un tiempo tienen función de asistencia auditiva de grado clínico. Sí, tus audífonos inalámbricos ahora pueden ser aparatos auditivos certificados.

Vision Pro: zoom al mundo real

El Apple Vision Pro también recibe mejoras importantes. La más llamativa: poder hacer zoom con las cámaras principales al entorno físico que te rodea.

Esto va más allá de ampliar contenido digital. Es poder ver más de cerca un libro de recetas mientras cocinas, leer una etiqueta pequeña o aumentar cualquier detalle del mundo real sin necesidad de acercarte físicamente.

Además, llega Reconocimiento en Tiempo Real, que usa inteligencia artificial en el dispositivo para describir lo que ves, encontrar objetos o leer documentos. Y aquí viene algo clave: Apple está abriendo una API para que apps como Be My Eyes puedan acceder a la cámara principal y ofrecer asistencia visual en vivo, de persona a persona.

Voz Personal ahora en español

Voz Personal, la función que permite a personas en riesgo de perder la voz crear una réplica digital de su propia voz, ahora requiere mucho menos esfuerzo: solo 10 frases grabadas y menos de un minuto.

Gracias a mejoras en inteligencia artificial, la voz generada suena más natural y fluida. Y lo mejor: finalmente estará disponible en español de México, una petición que muchos usuarios llevaban tiempo solicitando.

El detalle que cambia los viajes en auto

¿Alguna vez te has mareado leyendo en un auto en movimiento? Los Indicadores de Movimiento del Vehículo son pequeños puntos animados en la pantalla que se mueven según el movimiento del vehículo, ayudando a tu cerebro a sincronizar lo que ves con lo que siente tu cuerpo.

La función, que ya existía en iPhone y iPad, ahora llega a la Mac. Puede parecer un detalle menor, pero para personas con sensibilidad al movimiento, significa la diferencia entre poder trabajar durante un viaje o tener que cerrar la laptop.

¿Por qué importa todo esto?

Piensa en esto: los subtítulos fueron creados para personas sordas, pero hoy todos los usamos en videos cuando estamos en lugares ruidosos o queremos discreción. El reconocimiento de voz nació como tecnología asistiva y ahora Siri es mainstream. Las rampas son para sillas de ruedas, pero también las usan padres con carriolas y gente con maletas.

Tim Cook lo resume bien: "Crear tecnología accesible para todos es una prioridad para nosotros". Y después de 40 años haciendo accesibilidad, Apple sigue demostrando que no es solo marketing.

Estas funciones estarán disponibles próximamente este año. Y aunque aún falta confirmar fechas exactas, lo importante es que el ecosistema completo (iOS, iPadOS, macOS, watchOS y visionOS) recibirá actualizaciones simultáneas.

Porque al final, la tecnología realmente revolucionaria no es la que hace cosas imposibles. Es la que hace posible que más personas hagan cosas.

"Apple no especificó una fecha exacta, pero siguiendo su calendario habitual, estas funciones probablemente llegarán con iOS 18, iPadOS 18 y macOS 15 entre septiembre y noviembre de 2025."