marzo 29, 2024

Cuando la IA daña a las personas, ¿quién es responsable?

Tras una decisión del Gran Jurado del Condado de Maricopa, la mujer al volante de un vehículo Uber semiautónomo fue acusada de homicidio el mes pasado por el asesinato de Elaine Herzberg en 2018. El conductor de reserva que está siendo acusado. después de la primera fatalidad de un vehículo autónomo parece ser el primero y promete ser un caso histórico con el poder de dar forma al futuro de la inteligencia artificial.

No es fácil determinar si un ser humano tuvo la culpa cuando la IA desempeña un papel en la lesión o muerte de una persona. Si la IA tiene el control y algo sale mal, ¿cuándo es culpa del hombre y cuándo se puede culpar a la IA? Este es el objetivo de un artículo reciente publicado en Boston University Law Review. En él, el profesor asistente de la UCLA, Andrew Selbst, descubre que la inteligencia artificial crea tensión con la ley de negligencia existente que requiere la intervención de los reguladores. El documento se publicó inicialmente a principios de 2021, pero se actualizó recientemente con el análisis del caso de homicidio involuntario en Arizona.

Selbst dice que el caso de Uber podría ser un caso en el que la responsabilidad de una acción se atribuya erróneamente a un actor humano con control limitado sobre el comportamiento de un sistema automatizado o autónomo, lo que la antropóloga cultural Madeleine Elish llama “zonas de colapso moral “. Cuando las máquinas y los humanos se consideran en conjunto, pero la ley no tiene en cuenta la inteligencia artificial, los humanos pueden absorber la responsabilidad y convertirse en “esponjas de responsabilidad”.

“Si la ley de negligencia requiere un estándar de atención más alto que el que pueden manejar los humanos, colocará la responsabilidad en los trabajadores humanos, incluso cuando la persona promedio no pueda prevenir el peligro”, escribe Selbst. “Si bien el caso de Uber parece apuntar en la dirección de áreas de degradación moral, también es fácil imaginar lo contrario: encontrar que debido a que la persona promedio no puede reaccionar a tiempo o permanecer alerta perpetuamente, no hacerlo es razonable. “La IA crea incertidumbre”.

Selbst dijo que los académicos legales tienden a distinguir entre vehículos totalmente autónomos y máquinas semiautónomas que funcionan con humanos, como el vehículo involucrado en el accidente de Uber.

Si bien los vehículos totalmente autónomos o la inteligencia artificial general (AGI) pueden transferir la responsabilidad al fabricante del hardware o al sistema de inteligencia artificial, la respuesta es mucho menos clara cuando un humano utiliza la inteligencia artificial para tomar una decisión basada en un pronóstico, clasificación o evaluación, un hecho que Selbst predice que presentará desafíos para las empresas, los gobiernos y las sociedades.

La gran mayoría de la IA del mercado actual aumenta la toma de decisiones humanas. Los ejemplos comunes en la actualidad incluyen algoritmos de reincidencia utilizados por jueces y herramientas basadas en inteligencia artificial que utilizan los profesionales médicos para elaborar un plan de tratamiento médico o un diagnóstico. Los ejemplos incluyen sistemas que detectan patrones en imágenes médicas que los profesionales pueden usar para diagnosticar enfermedades como cáncer de mama, cáncer de pulmón, cáncer de cerebro y, al comienzo del trabajo, COVID-19.

Selbst dice que la tecnología es un impulsor clave del cambio en la ley de negligencia, pero la combinación de humanos e inteligencia artificial para tomar una decisión hace que la IA sea diferente. Lo que complica aún más las cosas es el hecho de que los humanos pueden aceptar la toma de decisiones automatizada fuera de control, ignorar la IA si sufren fatiga de alarma por demasiadas notificaciones y confiar en la IA para reconocer patrones en los datos que son demasiado complejos para hacer. seguir.

Para resolver problemas cuando las cosas van mal en un mundo lleno de humanos y sistemas de inteligencia artificial que toman decisiones en paralelo, Selbst dice que los gobiernos deben considerar reformas que le den una oportunidad a la ley de negligencia. ponerse al día con la tecnología emergente.

“Cuando la sociedad decida que la inteligencia artificial es demasiado buena para dejarla de lado, es probable que necesitemos un nuevo paradigma regulatorio para compensar a las víctimas del uso de la IA, y debería separarse de la necesidad de encontrar fallas. Podría ser”. de responsabilidad estricta, podría ser un seguro extenso o podría ser una regulación ex ante ”, se lee en el documento.

También hay una gama de modelos existentes como la “FDA para algoritmos” propuesto por Andrew Tutt, una agencia federal para evaluar algoritmos de la misma manera que la FDA investiga medicamentos, que como la inteligencia artificial pueden ofrecer resultados sin estar en capaz de explicar completamente su contenido. También existe la idea de evaluaciones algorítmicas similares a las evaluaciones de impacto ambiental, una forma de aumentar la supervisión y las divulgaciones disponibles públicamente.

“En última instancia, dado que la inteligencia artificial inserta una capa de código inescrutable, no intuitiva, derivada estadísticamente y a menudo patentada entre la decisión y el resultado, el vínculo entre las elecciones, acciones y resultados humanos del que la ley sobre negligencia se basa en su fuerza ”, se lee en el documento. “Si bien puede haber una manera de vincular algunas decisiones a sus resultados utilizando requisitos de explicación y transparencia, la negligencia necesitará una serie de intervenciones externas para tener una oportunidad real de reparar el daño que resulta del uso de la IA”. .

Esto podría dar tiempo a los estándares de la ley de negligencia para ponerse al día con los avances en inteligencia artificial antes de que ocurran futuros cambios de paradigma y los estándares se retrasen aún más.

El documento también explora la pregunta de qué sucede cuando el sesgo algorítmico juega un papel en una lesión. Volviendo al tema de los vehículos autónomos, la investigación ha demostrado que los sistemas de visión artificial utilizados detectan mejor a los peatones blancos que a los negros. Aceptar el uso de tal sistema podría reducir las bajas de vehículos en general, pero también sancionaría peores resultados para los peatones negros.

Si no se lleva a cabo ninguna acción reguladora, dijo Selbst, existe el peligro de que la IA pueda normalizar los resultados negativos para algunos pero no les dé ningún recurso. Esto tiene el potencial de acelerar los sentimientos de impotencia que enfrentan los consumidores hoy en día cuando se encuentran con sesgos algorítmicos o no tienen opciones de reparación cuando sufren daños en línea.

“La preocupación es que si bien la IA puede reducir con éxito el número total de lesiones, no las eliminará, pero eliminará la capacidad de las personas lesionadas en el nuevo régimen para recuperarse de la negligencia”, se lee en el documento. “Al utilizar una herramienta basada en el razonamiento estadístico, el hospital previene muchas lesiones, pero desde una perspectiva individual también crea un nuevo grupo de víctimas que no tendrán ningún recurso”.

El secreto en la industria de la IA también es una barrera potencial importante. La ley de negligencia evoluciona con el tiempo para reflejar definiciones comunes de lo que constituye un comportamiento razonable o irrazonable, por ejemplo, por un médico o conductor acusado de negligencia, pero es probable que el secreto se oculte al público. eventos comunes que causan lesiones. Como en el pasado con las grandes tabacaleras, parte de esta información puede ser hecha pública por los denunciantes, pero el secreto puede prevenir esta evolución de los estándares. La velocidad del desarrollo de la IA en relación con los cambios en la negligencia o la responsabilidad civil podría empeorar las cosas.

“Como resultado del secreto, sabemos poco de lo que las empresas individuales han aprendido sobre los errores y vulnerabilidades de sus productos. En estas circunstancias, es imposible que el público llegue a conclusiones sobre qué tipos de errores son razonables o no”, dice el documento.

Además de la portabilidad de datos y la libertad de rechazar el uso de IA en la toma de decisiones, proporcionar reparación a las personas es una parte esencial de una declaración de derechos algorítmica propuesta por expertos en IA el año pasado. En otra iniciativa reciente que alentó a la compañía a adaptarse para adaptarse a la inteligencia artificial, el mes pasado, Ámsterdam y Helsinki lanzaron versiones beta de registros de algoritmos para que los residentes inspeccionen las evaluaciones de riesgo y sesgo e identifiquen los conjuntos de datos utilizados. para entrenar los sistemas de inteligencia artificial y encontrar rápidamente al funcionario de la ciudad y al departamento de la ciudad responsable de implementar ese sistema de inteligencia artificial.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *