No es menos cierto que cuando Apple hay que darle palos ahí estoy yo como el primero dándole
por todas partes, pero tampoco es menos cierto que no se le puede quitar el mérito que tiene
esta compañía, sobre todo cuando es relacionado con temas de accesibilidad y es un tema del que
se habla poco o por lo menos, Yo escucho que la gente habla poco, pero que es un tema muy importante
para un sector bastante grande de la población que para que un motivo digamos que con dispositivos de
Apple tienen la posibilidad de hacer muchas más cosas que con otros dispositivos. Apple anunció
ayer 15 de mayo nuevas funciones de accesibilidad que llegarán a finales de este año, incluido
eye tracking o salimiento de ojo que es una nueva forma para que los usuarios con discapacidades
físicas controlen el iPad o el iPhone con sus ojos. También incluyen music haptics que ofrecerá
una nueva forma para que los usuarios sordos o con problemas de audición experimenten la música
utilizando la o sea el Taptic Engine del iPhone. También están los atajos vocales que permitirán
a los usuarios realizar tareas creando un sonido personalizado. Está también el vehicle
motion cues que son señales de movimientos del vehículo que puede ayudar a reducir el mareo
cuando se utiliza el iPhone o el iPad y de esto básicamente va este episodio. Yo no estoy diciendo
nada nuevo, estoy básicamente traduciendo del inglés lo que dice la noticia de Apple para que
bueno los que me escuchan estén actualizados con respecto a esto. Comienzo por eye tracking o
salimiento de ojos que está impulsado por inteligencia artificial y ofrece a los usuarios una
función integrada para navegar en el iPad y el iPhone solo con los ojos. Eye tracking fue diseñado
para usuarios con discapacidad física y utiliza la cámara frontal para configurar y calibrar en
segundos y con aprendizaje automático del dispositivo todos los datos utilizados para
configurar esta opción o esta función y por supuesto todo esto se guarda de forma segura
en el dispositivos y no se comparte con Apple. Eye tracking funciona en aplicaciones de iPad,
OS y iOS y no requiere hardware ni necesarios adicionales y puedes o sea los usuarios pueden
navegar a través de los elementos de una aplicación y usar algo que le llaman Dwell control para
activar cada elemento accediendo a funciones adicionales como botones físicos, deslizamientos
y otros gestos únicamente con los ojos. Por su parte music haptics o música aptica es una
forma para que los usuarios sordos o con problemas de audición experimenten la música en el iPhone.
Con esta función de asesibilidad activada el Taptic Engine en el iPhone reproduce toques,
texturas y vibraciones refinadas que se ajustan al audio de la música. Según dice Apple Music
haptics funciona en millones de canciones del catálogo Apple Music y estará disponible
también como API para que los desarrolladores hagan que la música sea más accesible en sus
aplicaciones. Tenemos también los atajos vocales donde los usuarios de iPhone y iPad pueden
asignar expresiones personalizadas que Siri puede entender para iniciar atajos y completar tareas
complejas. Escuchar una voz atípica es otra característica nueva que ofrece a los usuarios
una opción para mejorar el reconocimiento de voz para una gama más amplia de habla.
Listen for atype speech, como se llama, utiliza el aprendizaje automático en el dispositivo para
reconocer los patrones de habla del usuario. Está diseñado para usuarios con afecciones
adquiridas o progresivas que afectan el habla como la parálisis cerebral, la esclerosis lateral
amiatrófica o ELA, por su sigla inglés o accidente cerebrovascular. Estas funciones brindan un
nuevo nivel de personalización y control basándose en las funciones introducidas en iOS 17 para
usuarios que no hablan o están en riesgo de perder la capacidad de hablar. Una que me parece
especialmente interesante es esta de señales de movimiento del vehículo o vehicle motion cues,
que es una nueva experiencia para el iPhone y el iPad que pueden ayudar a reducir el mareo de
los pasajeros de vehículos en movimiento. Las investigaciones muestran que el mareo por
movimiento es comúnmente causado por un conflicto sensorial, entre lo que una persona ve y lo que
siente, lo que puede impedir que algunos usuarios usen cómodamente el iPhone o el iPad mientras
viajan en un vehículo que se está desplazando. Con vehicle motion cues se muestran puntos animados
en los bordes de la pantalla que representan cambios en el movimiento del vehículo para
ayudar a reducir estos conflictos sensoriales sin interferir en el contenido principal. Utiliza
los sensores integrados en el iPhone y reconoce cuando un usuario está en un vehículo en
movimiento y responde en consecuencia. La función esta se puede configurar para que se muestre
automáticamente en el iPhone o se puede activar y desactivar en el centro de control. Como funciona
es que cuando el vehículo está en movimiento y por ejemplo gira a la izquierda unos puntos
negros aparecen a todo lo largo y ancho de la pantalla desde la izquierda hasta la derecha, o sea hacia
la derecha y se van desvaneciendo. Cuando gira a la derecha sucede lo mismo en el sentido contrario,
obviamente, cuando acelera los puntos aparecen desde arriba y se deslizan hacia abajo y cuando
frena pues evidentemente en el sentido contrario, de abajo hacia arriba, aparecen estos puntos que
son como unas bolas negras que se van poniendo más pequeñas y se van desvaneciendo. Esto está
espectacular, o sea esto es algo que me gustaría probar una vez que esté disponible porque a veces me ha
pasado también que me mareo cuando voy a un vehículo y no estoy manejando evidentemente. También
tiene funciones de accesibilidad que vienen con CarPlay que incluyen control por voz,
filtros de color y reconocimiento de sonido, con Voice Control que es como le llaman los
usuarios pueden navegar por CarPlay y controlar las aplicaciones solo con su voz. Con reconocimiento
de sonido los conductores o pasajeros sordos o con problemas de audición pueden activar alertas
para recibir notificaciones sobre las bocinas y sirenas de los automóviles. Para los usuarios
daltonicos los filtros de color hacen que la interfaz de CarPlay sea visualmente más fácil de usar
con funciones de accesibilidad visual adicionales que incluyen texto en negrita y texto grande.
Hay otras actualizaciones adicionales, voy a dejar el enlace de la web para que las vean, pero por ejemplo para
los usuarios ciegos con baja visión Voice Over incluirá nuevas voces, un Voice Rotor flexible,
un control de volumen personalizado y la capacidad de personalizar los atajos de
clavos de Voice Over en el Mac. Y como esto otro montón de cosas más. Es importante también
resaltar que Apple está impulsando un día especial para todo el tema de la accesibilidad,
la concientización de la accesibilidad que tienen varias iniciativas que bueno como digo las pueden
leer también en la web y no las voy a decir aquí para no alargarme mucho más. Pero
aplaudo hasta con las orejas estas cosas de Apple porque verdad que son cosas que ayudan a cambiar
la vida a la gente y si tengo la audacia de cuando hacen algo malo venir aquí y soltar mis mierdas
y rajar contra ellos, también tengo la valentía, la humildad, no sé de reconocer de que en estas
cosas no muchas compañías por no decir ninguna, les pone un pie delante. Así que hasta un próximo episodio.
[Música]