mayo 14, 2021

Si la IA nos ayudará en una crisis, necesitamos un nuevo tipo de ética

¿Qué oportunidades hemos perdido al no haber implementado estos procedimientos?

Es fácil reprogramar lo que es posible y probablemente la inteligencia artificial nunca hubiera jugado un papel importante en esta crisis. Los sistemas de aprendizaje automático no son lo suficientemente maduros.

Pero hay un puñado de casos en los que la IA está siendo probada para diagnóstico médico o para asignación de recursos en hospitales. Es posible que hayamos podido usar este tipo de sistemas de manera más amplia, reduciendo parte de la carga sobre la atención médica, si se hubieran diseñado desde el principio teniendo en cuenta la ética.

Con la asignación de recursos en particular, usted decide qué pacientes tienen la máxima prioridad. Se requiere un marco ético incorporado antes de usar AI para ayudar con este tipo de decisión.

Entonces, ¿la ética fuera de urgencia es simplemente un llamado a mejorar la ética de IA existente?

Es parte de eso. El hecho de que no tengamos procesos prácticos y sólidos para la ética de la IA hace que las cosas sean más difíciles en un escenario de crisis. Pero en momentos como este también tiene una mayor necesidad de transparencia. La gente habla mucho sobre la falta de transparencia con los sistemas de aprendizaje automático como las cajas negras. Pero hay otro tipo de transparencia con respecto a la forma en que se utilizan los sistemas.

Esto es especialmente importante en una crisis cuando los gobiernos y las organizaciones toman decisiones urgentes que implican compromisos. ¿A qué salud le das prioridad? ¿Cómo se salva la vida sin destruir la economía? Si se usa la inteligencia artificial en la toma de decisiones públicas, la transparencia es más importante que nunca.

¿Qué debe cambiar?

Tenemos que pensar en la ética de manera diferente. No debería ser algo que suceda de forma lateral o posterior, algo que te frene. En primer lugar, debería ser parte de la forma en que construimos estos sistemas: ética por diseño.

A veces siento que «ética» es la palabra equivocada. Lo que estamos diciendo es que los investigadores e ingenieros de aprendizaje automático deben estar capacitados para reflexionar sobre las implicaciones de lo que están construyendo, ya sea que estén haciendo una investigación fundamental, como el diseño de un nuevo algoritmo de aprendizaje por refuerzo o algo más práctico como este. Desarrollo una aplicación de salud. Si su trabajo llega a productos y servicios del mundo real, ¿cómo podría ser? ¿Qué tipo de problemas podría plantear?

Algunos de estos ya han comenzado. Estamos trabajando con algunos investigadores de IA en sus primeros años de carrera, hablando con ellos sobre cómo llevar esta forma de pensar a su trabajo. Es un poco un experimento ver lo que sucede. Pero también NeurIPS [a leading AI conference] ahora pide a los investigadores que incluyan una declaración al final de sus documentos que describa los posibles impactos sociales de su trabajo.

Usted dijo que necesitamos personas con habilidades técnicas en todos los niveles de diseño y uso de IA. ¿Porque?

No estoy diciendo que la competencia técnica sea la esencia total de la ética, pero es una perspectiva que debe ser representada. Y no quiero sonar como si dijera que toda la responsabilidad recae en los investigadores, porque muchas de las decisiones importantes sobre cómo se usa la IA se toman más arriba en la cadena, por la industria o por los gobiernos.

Pero me temo que las personas que toman estas decisiones no siempre entienden cómo podría salir mal. Por lo tanto, es necesario involucrar a personas con habilidades técnicas. Nuestras ideas sobre lo que la IA puede y no puede hacer no son muy confiables.

Lo que necesita en todos los niveles de desarrollo de IA son personas que realmente entiendan los detalles del aprendizaje automático para trabajar con personas que realmente entiendan la ética. La colaboración interdisciplinaria es, sin embargo, difícil. Las personas con diferentes áreas de especialización a menudo hablan de cosas de diferentes maneras. Lo que un investigador de aprendizaje automático entiende por privacidad puede ser muy diferente de lo que un abogado entiende por privacidad, y puede terminar con personas hablando una al lado de la otra. Por eso es importante que estos diferentes grupos se acostumbren a trabajar juntos.

Usted está presionando para una revisión institucional y cultural bastante grande. ¿Qué te hace pensar que la gente querrá hacer esto en lugar de crear comités de ética o comités de supervisión, lo que siempre me hace suspirar un poco porque tienden a ser desdentados?

Sí, yo también suspiro. Pero creo que esta crisis obliga a las personas a ver la importancia de las soluciones prácticas. Tal vez en lugar de decir: «Oh, tenemos esta junta de supervisión y esa junta de supervisión», la gente dirá: «Tenemos que hacerlo y tenemos que hacerlo correctamente».

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *