mayo 14, 2021

Investigadores de IA dicen que los editores científicos ayudan a perpetuar algoritmos racistas

Las noticias: Una carta abierta de una creciente coalición de investigadores de inteligencia artificial está pidiendo al editor científico Springer Nature un documento de la conferencia que originalmente planeó incluir en su próximo libro. Transacciones sobre ciencia computacional e inteligencia computacional. El artículo, titulado «Un modelo de red neuronal profunda para predecir delitos mediante el procesamiento de imágenes», presenta un sistema de reconocimiento facial que presumiblemente es capaz de predecir si alguien es un criminal, según el comunicado de prensa original. Fue desarrollado por investigadores de la Universidad de Harrisburg y debía presentarse en una próxima conferencia.

Las necesidades: Citando el trabajo de destacados académicos negros de IA, la carta desenmascara la base científica del documento y afirma el racismo de las tecnologías de predicción del crimen. También enumera tres solicitudes: (1) Springer Nature para cancelar su oferta de publicación de estudio; (2) emitir una declaración condenando el uso de estadísticas, como el aprendizaje automático, para predecir el crimen y reconocer su papel en el estímulo de dicha investigación; y (3) que todos los editores científicos se comprometan a no publicar artículos similares en el futuro. La carta, que fue enviada el lunes a Springer Nature, fue escrita originalmente por cinco investigadores del MIT, el Instituto Politécnico Rensselaer, la Universidad McGill y el Instituto AI Now. En pocos días, tenía más de 600 firmas y cuentas en todas las comunidades éticas y académicas de AI, incluidas personalidades prominentes como Meredith Whittaker, cofundadora del AI Now Institute, y Ethan Zuckerman, ex director del Centro. para Civic Media en el MIT Media Lab.

Porque importa: Si bien la carta destaca un documento específico, el objetivo de los autores es demostrar un problema sistemático con la forma en que la publicación científica incentiva a los investigadores a perpetuar las normas poco éticas. «Es por eso que seguimos viendo surgir la ciencia de la raza varias veces», dijo Chelsea Barabas, investigadora del MIT y uno de los coautores de la carta. «Es porque los editores lo publican». «El verdadero significado de esta pieza de Springer es que no es absolutamente única», hizo eco Theodora Dryer, investigadora postdoctoral en AI Now y otro coautor. «Es emblemático de un problema y crítica que ha durado tanto».

La respuesta de Springer: En respuesta a la carta, Springer declaró que ya no publicaría el periódico. «El documento al que se refiere se presentó en una próxima conferencia para la cual Springer planeó publicar las actas», dijo. «Después de un exhaustivo proceso de revisión por pares, el documento fue rechazado». La Universidad de Harrisburg también publicó su comunicado de prensa, declarando que «la facultad está actualizando el documento para abordar las preocupaciones planteadas». Los firmantes de la carta declararon que continuarán presionando para cumplir con su segunda y tercera solicitud. Springer no respondió a la solicitud independiente de comentarios de MIT Technology Review. La Universidad de Harrisburg y el coautor del artículo también negaron una solicitud de comentarios y una solicitud de una copia del documento original.

La fotografía más grande: Desde que la muerte de George Floyd provocó un movimiento internacional por la justicia racial, el sector de la IA y la industria de la tecnología en general han tenido que lidiar con el papel que ha desempeñado en el fortalecimiento del racismo estructural. Durante la semana del 8 de junio, por ejemplo, IBM, Microsoft y Amazon anunciaron el final o la suspensión parcial de sus productos de reconocimiento facial. La medida fue la culminación de dos años de patrocinio por parte de investigadores y activistas para demostrar un vínculo entre estas tecnologías y la vigilancia excesiva de las comunidades minoritarias. La carta abierta es el último desarrollo de este movimiento creciente para mover las normas de la comunidad a un mayor nivel de responsabilidad ética.

«Realmente queríamos contribuir a este movimiento en crecimiento», dijo Sonja Solomun, directora de investigación del Centro de Medios, Tecnología y Democracia de la Universidad McGill. «Especialmente cuando miramos por nuestras ventanas y vemos lo que está sucediendo ahora en los Estados Unidos y en todo el mundo, hay mucho en juego».

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *