abril 20, 2021

Microsoft trabaja con Team Gleason para crear un conjunto de datos de visión artificial para el SLA

Microsoft y Team Gleason, la organización sin fines de lucro fundada por el jugador de la NFL Steve Gleason, lanzaron hoy Project Insight para crear un conjunto de datos abiertos de imágenes faciales de personas con esclerosis lateral amiotrófica (ELA). Las organizaciones esperan fomentar la innovación en la visión por computadora y ampliar el potencial de conectividad y comunicación para las personas con problemas de accesibilidad.

Microsoft y Team Gleason dicen que los conjuntos de datos de aprendizaje automático existentes no representan la diversidad de personas con ELA, una condición que afecta a hasta 30,000 personas en los EE. UU. Esto da como resultado problemas de identificación precisa de personas, debido a mascarillas respiratorias, párpados caídos, ojos llorosos y ojos secos por medicamentos que controlan el exceso de saliva.

Project Insight investigará cómo usar los datos y la inteligencia artificial con la cámara frontal ya presente en muchos dispositivos de asistencia para predecir dónde está mirando una persona en una pantalla. El equipo de Gleason trabajará con el equipo Health Next Enable de Microsoft para recopilar imágenes de personas con ELA mirando sus computadoras para que puedan entrenar modelos de IA de manera más inclusiva. (El equipo Microsoft Health Next, que forma parte de su división Health AI, se centra en la inteligencia artificial y los servicios basados ​​en la nube para mejorar los resultados de salud). Los asistentes recibirán un breve cuestionario de historial médico y se les solicitará a través de una aplicación para enviar fotos de ellos mismos usando su computadora.

«La progresión de la ELA puede ser tan diversa como los propios individuos», dijo Blair Casey, director de impacto de Team Gleason. “Por lo tanto, el acceso a computadoras y dispositivos de comunicación no debería ser una medida única para todos. Obtendremos la mayor cantidad de información posible de 100 personas que viven con ELA para que podamos desarrollar herramientas que todos puedan utilizar de manera eficaz «.

Microsoft y Team Gleason estiman que el proyecto recopilará y compartirá 5 TB de datos anónimos con investigadores en plataformas de ciencia de datos como Kaggle y GitHub.

«Existe una falta significativa de datos específicos sobre discapacidad necesarios para aprovechar estas oportunidades innovadoras y complejas dentro de la experiencia de la discapacidad», dijo Mary Bellard, arquitecta senior de accesibilidad de Microsoft. “No se trata de discapacidad y accesibilidad que mejoran la IA. Se trata de cómo la IA mejora la accesibilidad y … se adapta mejor a la experiencia de la discapacidad «.

Project Insight sigue a GazeSpeak de Microsoft, una aplicación de accesibilidad para personas con SLA que se ejecuta en un teléfono inteligente y utiliza inteligencia artificial para convertir los movimientos oculares en palabras, de modo que un interlocutor pueda entender lo que se dice en tiempo real. . En las pruebas, GazeSpeak demostró ser mucho más rápido que los tableros de mensajes que muestran letras en diferentes grupos, un método que las personas con ELA han utilizado históricamente. En particular, la aplicación ayudó a los usuarios a completar oraciones en promedio en 78 segundos, en comparación con 123 segundos usando los foros de mensajes.

Microsoft no está solo en aprovechar la inteligencia artificial para abordar los desafíos asociados con el SLA. El ingeniero con sede en Londres Julius Sweetland creó OptiKey, un software gratuito que utiliza hardware de seguimiento ocular estándar para analizar los movimientos oculares de un usuario. Un teclado en pantalla permite al usuario seleccionar letras de esta manera, con sugerencias automáticas que aparecen como lo harían en un teléfono inteligente iOS o Android.

En agosto, los investigadores de Google AI que trabajan con el ALS Therapy Development Institute compartieron detalles sobre el Euphonia Project, un servicio de transcripción de voz a texto que puede mejorar drásticamente la calidad del habla y la generación de personas con problemas. del lenguaje. Para desarrollar el modelo, Google solicitó datos de personas con ELA y utilizó errores de fonemas, que involucran unidades de sonido perceptualmente distintas en un idioma, para reducir las tasas de error de las palabras.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *