abril 19, 2024

Los verdaderos peligros de la IA están más cerca de lo que pensamos

William Isaac es investigador principal del equipo de ética y empresa de DeepMind, una startup de inteligencia artificial adquirida por Google en 2014. También es copresidente de la conferencia Fairness, Accountability and Transparencia, la principal reunión anual de expertos en inteligencia artificial y científicos. abogados y sociales que trabajan en esta área. Le pregunté sobre los desafíos actuales y potenciales que enfrenta el desarrollo de la IA y las soluciones.

P: ¿Deberíamos preocuparnos por la IA superinteligente?

R: Quiero mover la pregunta. Las amenazas se superponen, ya sea mediante vigilancia policial predictiva a corto plazo y evaluación de riesgos, o sistemas a largo plazo más escalables y avanzados. Muchos de estos problemas también tienen una base histórica. Por lo tanto, los riesgos potenciales y las formas de abordarlos no son tan abstractos como pensamos.

Hay tres áreas que quiero señalar. Probablemente la más urgente sea esta pregunta sobre la alineación de valores: ¿Cómo se diseña realmente un sistema que pueda comprender e implementar las diversas formas de preferencias y valores de una población? En los últimos años, hemos visto intentos de los legisladores, la industria y otros para intentar incorporar valores en sistemas técnicos a gran escala, en áreas como vigilancia policial predictiva, evaluación de riesgos, contratación, etc. Está claro que muestran algún tipo de prejuicio que refleja la sociedad. El sistema ideal equilibraría todas las necesidades de muchas partes interesadas y muchas personas de la población. Pero, ¿cómo logra la sociedad conciliar su historia con las aspiraciones? Todavía estamos luchando con las respuestas y esa pregunta se volverá exponencialmente más complicada. Resolver el problema no es solo algo para el futuro, sino para el aquí y ahora.

El segundo sería la consecución de un beneficio social demostrable. Hasta este momento, todavía hay poca evidencia empírica que confirme que las tecnologías de IA lograrán la amplia ventaja social a la que aspiramos.

Finalmente, creo que lo más importante que le importa a cualquiera que trabaje en el espacio es: cuáles son los mecanismos sólidos de supervisión y rendición de cuentas.

P: ¿Cómo supera estos riesgos y desafíos?

R: Tres áreas ayudarían mucho. El primero es desarrollar un músculo colectivo para la innovación y la supervisión responsables. Asegúrese de pensar dónde existen las formas de desalineación, lesión o daño. Asegúrese de desarrollar buenos procesos para asegurarse de que todos los grupos estén involucrados en el proceso de diseño de tecnología. Los grupos que históricamente han sido marginados a menudo no son los que satisfacen sus necesidades. Entonces, cómo diseñamos procesos para hacer esto realmente importa.

El segundo es acelerar el desarrollo de herramientas sociotécnicas para realizar este trabajo. No tenemos muchas herramientas.

El último es proporcionar más financiación y formación a los investigadores y profesionales, especialmente a los investigadores y profesionales del color, para realizar este trabajo. No solo en aprendizaje automático, sino también en STS [science, technology, and society] y las ciencias sociales. Queremos que no solo unas pocas personas, sino una comunidad de investigadores comprendan verdaderamente la gama de daños potenciales que plantean los sistemas de IA y cómo mitigarlos con éxito.

P: ¿Hasta dónde han llegado los investigadores de IA al pensar en estos desafíos y hasta dónde aún tienen que llegar?

R: Recuerdo que en 2016 la Casa Blanca acababa de publicar un informe sobre big data y había un fuerte sentimiento de optimismo de que podríamos usar datos y aprendizaje automático para resolver algunos problemas sociales insolubles. Al mismo tiempo, había investigadores de la comunidad académica que habían señalado en un sentido muy abstracto: “Oye, hay algún daño potencial que se podría hacer a través de estos sistemas”. Pero en su mayor parte no habían interactuado en absoluto. Existían en silos únicos.

Desde entonces, hemos realizado muchas más investigaciones dirigidas a esta intersección de fallas conocidas dentro de los sistemas de aprendizaje automático y su aplicación a la sociedad. Y una vez que las personas empezaron a ver esa interacción, se dieron cuenta de que “Bien, esto no es solo un riesgo hipotético. Es una amenaza real. “Entonces, si nos fijamos en el campo por fases, la fase uno ha sido muy destacada y ha dejado en claro que estas preocupaciones son reales. La segunda fase ahora está comenzando a abordar problemas sistémicos más importantes.

P: Entonces, ¿es optimista acerca de lograr una IA rentable a gran escala?

A: lo son. Los últimos años me han dado muchas esperanzas. Considere el reconocimiento facial como ejemplo. Ha habido un gran trabajo de Joy Buolamwini, Timnit Gebru y Deb Raji al resaltar las disparidades interseccionales en la precisión entre los sistemas de reconocimiento facial. [i.e., showing these systems were far less accurate on Black female faces than white male ones]. Está la defensa que ha tenido lugar en la sociedad civil para montar una defensa rigurosa de los derechos humanos frente a la mala aplicación del reconocimiento facial. Y también el gran trabajo que estaban haciendo los legisladores, los reguladores y los grupos comunitarios de abajo hacia arriba para comunicar exactamente qué eran los sistemas de reconocimiento facial y qué riesgos potenciales representaban, y para pedir claridad sobre cuáles serían los beneficios para la sociedad. Este es un modelo de cómo podríamos imaginarnos involucrarnos con otros avances en IA.

Pero el desafío con el reconocimiento facial es que tuvimos que juzgar estos problemas éticos y de valor mientras distribuíamos públicamente la tecnología. En el futuro, espero que algunas de estas conversaciones sucedan antes de que surjan posibles daños.

P: ¿Con qué sueñas cuando sueñas con el futuro de la IA?

R: Podría ser un gran ecualizador. Por ejemplo, si tuviera profesores o tutores de inteligencia artificial que pudieran estar disponibles para los estudiantes y las comunidades donde el acceso a la educación y los recursos es muy limitado, sería muy empoderador. Y esto no es algo trivial que desear de esta tecnología. ¿Cómo sabes que da poder? ¿Cómo sabe que es socialmente beneficioso?

Fui a la escuela de posgrado en Michigan durante la crisis del agua en Flint. Cuando surgieron las incidencias iniciales de tuberías de plomo, los registros que tenían sobre la ubicación de los sistemas de tuberías estaban en fichas en la parte inferior de un edificio administrativo. La falta de acceso a la tecnología los había colocado en una desventaja significativa. Significa que las personas que crecieron en esas comunidades, más del 50% de las cuales son afroamericanos, crecieron en un entorno en el que no reciben servicios y recursos básicos.

Entonces la pregunta es: si se hace correctamente, ¿podrían estas tecnologías mejorar su nivel de vida? El aprendizaje automático pudo identificar y predecir dónde estaban las tuberías de plomo, reduciendo así los costos reales de reparación para la ciudad. Pero fue una empresa enorme y rara. Y como sabemos, Flint aún no ha eliminado todas las tuberías, por lo que también existen desafíos políticos y sociales: el aprendizaje automático no los resolverá todos. Pero la esperanza es que desarrollemos herramientas que fortalezcan a estas comunidades y proporcionen un cambio significativo en sus vidas. Esto es en lo que pienso cuando hablamos de lo que estamos construyendo. Eso es lo que quiero ver.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *