Según publica el Wall Street Journal Apple está entrenando a Siri para que pueda reconocer mejor el habla de personas con impedimentos como, por ejemplo, tartamudeo. Un gesto más en la línea de la accesibilidad y la inclusión que, en muchas cosas, hacen de las plataformas de Apple un ejemplo en la industria.
28.000 clips de audio extraídos de podcasts
Según la publicación Apple ha construido una base de datos que contiene 28.000 piezas de audio, debidamente etiquetadas, limpiadas y listas para entrenar con ellas al asistente. Estos datos se han recogido de Podcasts en los que participan personas con alguna clase de impedimento en el habla.
Según un portavoz de Apple este entreno del asistente permitirá que Siri reconozca con mayor precisión las peticiones realizadas. Un incremento en el reconocimiento de voz que viene acompañado de la función de "Aguantar para hablar" que nos permite aguantar el botón de Siri en nuestros dispositivos durante una petición larga o con pausas para evitar que cierto silencio dé a entender al asistente que hemos terminado de hablar.
Una función que se implementó en 2015 que realmente facilita el uso del asistente en determinadas situaciones y muestra el especial interés de la compañía en facilitar el acceso a los dispositivos y servicios a todos los usuarios por igual.
Apple publicará los procedimientos del plan de mejora de Siri en un paper de investigación en unos días y detallará los procesos que la compañía está llevando a cabo para mejorar el asistente. Una publicación que ayudará a otros equipos del sector a mejorar la capacidad de entendimiento de otros asistentes.
Está claro que en materia de accesibilidad Apple prioriza el acceso igualitario de todos los usuarios a sus productos y servicios. Una inversión que seguramente en muchos casos no se ve recompensada económicamente, pero sí en la seguridad de que los dispositivos de Apple son de los más accesibles del mercado.
Ver 11 comentarios