mayo 15, 2021

IBM abandona el reconocimiento facial, pide una regulación federal sobre el uso policial

Arvind Krishna, CEO de IBM, habló en una conferencia en 2016, cuando era vicepresidente sénior y director de IBM Research.
Acercarse / / Arvind Krishna, CEO de IBM, habló en una conferencia en 2016, cuando era vicepresidente sénior y director de IBM Research.

IBM se está alejando completamente de la industria del reconocimiento facial, anunció ayer el CEO Arvind Krishna en una carta instando al Congreso a actuar contra la mala conducta de la policía y regular cómo las agencias policiales pueden utilizar la tecnología.

«IBM ya no ofrece análisis de IBM o software de reconocimiento facial para fines generales», escribió Krishna sin rodeos en la carta. «IBM se opone enérgicamente y no perdonará el uso de ninguna tecnología, incluida la tecnología de reconocimiento facial ofrecida por otros proveedores, para la vigilancia masiva, el perfil racial, las violaciones de los derechos humanos y las libertades básicas o cualquier propósito que no es coherente con nuestros valores y principios de confianza y transparencia «.

Es cierto que IBM ya se encuentra en medio de una reestructuración masiva, que está perdiendo unidades de negocio y provocando despidos, por lo que el reconocimiento facial puede haber sido un segmento de la compañía que podría haber estado en el punto de partida por razones no relacionadas. Si bien esto es cierto, sin embargo, no hace que el razonamiento de Krishna sea incorrecto.

Históricamente, los sistemas de reconocimiento facial han tenido un problema de sesgo. En general, cuanto más oscura es la piel de alguien, más probable es que un sistema genere una coincidencia de falsos positivos. En 2018, por ejemplo, la ACLU realizó una prueba en el sistema de reconocimiento facial de Amazon y descubrió que combinaba incorrectamente a 28 miembros del Congreso con fotos, incluidos seis miembros del Caucus Negro del Congreso. Un año después, la ACLU repitió la prueba y esta vez descubrió que la tecnología hacía coincidir falsamente a 27 atletas profesionales con las imágenes en una base de datos de fotos policiales. Este sesgo algorítmico integrado en la tecnología puede, por lo tanto, amplificar las disparidades que ya existen en la aplicación de la ley.

Recientemente, en 2019, IBM buscó reducir la distorsión en su plataforma de reconocimiento facial al aumentar drásticamente la diversidad de conjuntos de datos utilizados para entrenar sus modelos de aprendizaje automático. «Los sistemas comerciales de reconocimiento facial funcionaron mejor para individuos y hombres más claros y peor para las mujeres más oscuras», observó la compañía en ese momento. «Si bien IBM Research se compromete a continuar el estudio y la investigación de sistemas de reconocimiento facial más justos, no creemos que podamos hacerlo solos … Alentamos a otros a contribuir al creciente cuerpo de investigación y avanzar en esta importante agenda científica». «

Krishna reiteró este punto en su carta al Congreso esta semana, afirmando que si bien la IA «es una herramienta poderosa» que puede ayudar a la policía, «los proveedores y usuarios de los sistemas de Al tienen una responsabilidad compartida. para asegurarse de que se evalúa el sesgo de Al, particularmente si se usa en la aplicación de la ley, y que tales pruebas de polarización se verifican y se informan «.

La fotografía más grande

Un informe reciente de OneZero encontró que más de 45 compañías anuncian activamente el reconocimiento facial para la vigilancia en tiempo real tanto para clientes privados como gubernamentales. Las preocupaciones sobre el uso policial de dicho software han aumentado en medio del actual movimiento de protesta masiva.

El proyecto de ley (PDF) que IBM escribió al Congreso en apoyo de la Ley de Justicia en la Policía incluye límites en el uso del reconocimiento facial por las cámaras corporales y otras cámaras y dispositivos de grabación. La sección de cámara corporal informa:

Las cámaras corporales no deben usarse para recopilar información de inteligencia basada en discursos, asociaciones o religiones protegidas por la primera enmienda, ni para registrar actividades no relacionadas con una respuesta a una llamada de servicio o una solicitud o reunión policial investigación entre un agente de la ley y un miembro del público y no debe estar equipado o sujeto a tecnologías de reconocimiento facial en tiempo real.

El proyecto de ley también prevé un estudio sobre «cuestiones relacionadas con los derechos constitucionales de las personas en las que se utiliza la tecnología de reconocimiento facial» y «cuestiones relacionadas con las limitaciones en el uso de la tecnología de reconocimiento facial».

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *