Apple te permitirá controlar tu iPhone con los ojos y la voz y da un nuevo paso de gigante para la accesibilidad

La firma norteamericana presenta nuevas herramientas que llegarán antes de 2025

Iphone Controlar Ojos
1 comentario Facebook Twitter Flipboard E-mail

Apple es una de las compañías que más aboga por introducir características de accesibilidad para sus usuarios. Hace un año, la firma norteamericana reveló que los iPhone solo necesitarían una muestra de 15 minutos de tu voz para poder reproducir la misma. De esta forma, presentó una opción muy llamativa para usuarios que han perdido la capacidad de hablar, tal y como le sucedió al cantante de country Randy Travis que, gracias a la inteligencia artificial, ha conseguido recuperar su carrera 11 años después.

Como señala el portal TechSpot en una reciente publicación, Apple reveló hace escasas horas que introducirá nuevas funciones para control mediante ojos y por voz tanto en iPhone como en iPad. Así, estos parches que llegarán a iOS e iPadOS (los sistemas operativos para móvil y tablet de la compañía respectivamente) permitirán, gracias al uso de la inteligencia artificial, que los usuarios puedan exprimir las posibilidades de dos nuevas funciones: Seguimiento de ojos y Atajos vocales.

Aún no hay fecha para su implementación

Como indica el portal norteamericano, hasta ahora Apple permitía sacar partido a opciones similares, pero esto requería utilizar hardware externo. Sin embargo, este anuncio tira esa posibilidad por tierra, ya que los propios dispositivos de la compañía integrarán las funciones a través de la inteligencia artificial. De esta forma, la cámara frontal se utilizará para calibrar y rastrear el movimiento de los ojos con la intención de que, a medida que se miren a determinados puntos de la pantalla, los elementos interactivos resalten. Y, a su vez, los Atajos vocales mejorarán a las instrucciones actuales de Siri.

Junto a estas funciones también se presentó otra llamada “Escuchar para el habla atípica”. En esencia, la tecnología de reconocimiento de voz de Apple analizará y aprenderá los patrones de habla de un usuario. De esta forma, Siri podrá entender mejor a aquellos que tengan dificultades en el habla a raíz de una enfermedad o un accidente. Por el momento, no hay una fecha concreta para la llegada de estos servicios. Sin embargo, la propia Apple reveló que estas funciones estarán disponibles “antes de finales de año”, razón por la que aterrizarán en algún punto de los próximos seis meses.

En 3DJuegos | ¿Es peligroso aceptar las cookies? Te contamos qué tipos hay y cómo puedes proteger tus datos gracias a las VPN

En 3DJuegos | ¿Quién sustituirá al sucesor de Steve Jobs? Después de 13 años al frente de Apple, Tim Cook repasa la lista de candidatos

Imagen principal de Bagus Hernawan (Unsplash)

Comentarios cerrados