El propósito de las pautas es asegurarse de que los contratistas de tecnología cumplan con los principios éticos existentes del Departamento de Defensa para la inteligencia artificial, dice Goodman. El Departamento de Defensa anunció estos principios el año pasado, luego de un estudio de dos años encargado por la Junta de Innovación de Defensa, una junta asesora de investigadores y empresarios líderes en tecnología establecida en 2016 para llevar la chispa de Silicon Valley a las fuerzas armadas. La junta estuvo presidida por el ex director ejecutivo de Google, Eric Schmidt, hasta septiembre de 2020 y sus miembros actuales incluyen a Daniela Rus, directora del Laboratorio de Inteligencia Artificial y Ciencias de la Computación del MIT.
Sin embargo, algunos críticos se preguntan si el trabajo promete alguna reforma significativa.
Durante el estudio, la junta consultó a varios expertos, incluidos críticos vocales del uso de la inteligencia artificial por parte de los militares, como miembros de la Campaign for Killer Robots y Meredith Whittaker, una exinvestigadora de Google que contribuyó a organizar las protestas del Proyecto Maven.
Whittaker, quien ahora es director de la facultad del AI Now Institute de la Universidad de Nueva York, no estuvo disponible para hacer comentarios. Pero según Courtney Holsworth, portavoz del instituto, asistió a una reunión, durante la cual discutió con miembros de la junta directiva, incluido Schmidt, sobre la dirección que estaba tomando. “Nunca se ha consultado de manera significativa”, dice Holsworth. “Afirmar que sí se podría leer como una forma de lavado ético, en el que la presencia de voces disidentes durante una pequeña parte de un largo proceso se utiliza para afirmar que un resultado en particular tiene un amplio consenso de las partes interesadas”.
Si el Departamento de Defensa no tiene un consenso amplio, ¿pueden sus directrices ayudar a generar confianza? “Habrá personas que nunca estarán satisfechas con ningún conjunto de pautas éticas elaboradas por el Departamento de Defensa porque encuentran la idea paradójica”, dice Goodman. “Es importante ser realista sobre lo que las directrices pueden y no pueden hacer”.
Por ejemplo, las directrices no dicen nada sobre el uso de armas autónomas letales, una tecnología que, según algunos activistas, debería prohibirse. Pero Goodman señala que las regulaciones que rigen dicha tecnología se deciden más arriba en la cadena. El objetivo de las pautas es facilitarle la creación de una IA que cumpla con estas regulaciones. Y parte de ese proceso es hacer explícitas todas las preocupaciones de los desarrolladores externos. “Una buena aplicación de estas pautas es decidir no seguir un sistema en particular”, dice Jared Dunnmon a DIU, coautor de las mismas. “Puedes decidir que no es una buena idea”.