mayo 14, 2021

Cómo la IA lidiará con su crisis de confianza

La inteligencia artificial ha avanzado mucho en los últimos años, volviéndose más inteligente y más autónoma de lo que piensas. Sin embargo, hay un área donde la IA podría usar algunas mejoras en la próxima década: la transparencia. Pero, ¿cómo lidiará AI con sus crisis de confianza?

Históricamente, la IA ha funcionado como una caja negra. Algunos desarrolladores sabían cómo funcionaban los algoritmos en su interior, pero para todos los demás, la mecánica de la inteligencia artificial seguía oculta. Las compañías pidieron a los usuarios que confiaran en que las ideas de AI son completas y precisas. Pero sin comprender de dónde provienen estos conocimientos, qué datos y lógica influyeron en sus fundamentos, es difícil creer que la IA sea tan inteligente como se hizo.

Esta falta de transparencia es cada vez más inaceptable cuando la IA se traslada a múltiples aspectos de nuestra vida cotidiana. Todo, desde las decisiones de contratación hasta las acciones policiales, ahora está informado por la IA. A medida que estas tendencias continúan, la IA plantea preguntas difíciles sobre parcialidad, justicia y confianza en las máquinas. Por ejemplo, se descubrió que una herramienta de reclutamiento de inteligencia artificial desarrollada por Amazon tiene una propensión a las mujeres. Este hallazgo sugirió que la tecnología era mucho menos objetiva de lo esperado.

Grupos como la Organización para la Cooperación y el Desarrollo Económico han comenzado a reunirse para hacer que la IA sea más transparente. El Reglamento General de Protección de Datos (GDPR), aprobado en la UE, permite a las personas aprender cómo los algoritmos usan sus datos. Estos son pasos en la dirección correcta e indicaciones claras de hacia dónde se dirige la IA. Pero también existen riesgos al hacer que la IA sea demasiado transparente.

Porque la IA prospera en las sombras

Cuando la IA se vuelve más transparente, también se vuelve más vulnerable a la manipulación. Piense en ello como una caja fuerte: una vez que se revela cómo funciona el mecanismo de bloqueo, la caja fuerte se vuelve mucho más fácil de descifrar.

Para todos los problemas creados por la IA opaca, es fácil imaginar tantos derivados de la inteligencia artificial con sus mecanismos internos expuestos. Una vez que los malos actores entienden cómo funcionan los algoritmos, pueden potencialmente reproducir el sistema para lograr el resultado deseado al alimentar los conjuntos de datos con documentación de IA o al modificar la lógica subyacente para gobernar a su favor. Imagínese si un profesor publica el código de puntaje para el algoritmo que clasifica la tarea de los estudiantes. Por lo tanto, los estudiantes podrían aprovechar el sistema de clasificación.

También hay preguntas a considerar con respecto a la propiedad intelectual. Las empresas privadas desarrollan la mayoría de los algoritmos y la forma en que funcionan se considera un secreto corporativo, al igual que la receta de Coca-Cola. Reconociendo que este es un tema delicado, algunos han pedido a los desarrolladores de IA que publiquen su código fuente a los reguladores o revisores que pueden proporcionar supervisión. Desafortunadamente, esta solución a medias no hace mucho para satisfacer a los desarrolladores o usuarios finales, lo que sugiere que tenemos que volver a la mesa de dibujo.

No importa qué solución se materialice, una cosa está clara: la transparencia total en la inteligencia artificial podría causar problemas. Para que esta tecnología funcione, algunas cosas deben permanecer desconocidas.

La inteligencia artificial futura seguirá una línea muy fina

La inteligencia artificial del mañana logrará un cuidadoso equilibrio entre transparencia y secreto. Queda por ver qué forma tiene esto después de las inevitables rondas de dar y recibir entre los sectores público, privado y de consumo. Sin embargo, a pesar de lo que sigue siendo desconocido, algunos desarrollos parecen probables.

Mejorar la transparencia de la inteligencia artificial implica mucho más que abrir puertas de par en par. Comprender qué algoritmos están haciendo realmente requiere un intenso escrutinio. > La explicación de la inteligencia artificial (XAI) utiliza algoritmos de aprendizaje automático interpretables para permitir a los operadores y usuarios de inteligencia artificial comprender por qué un sistema de inteligencia artificial tomó las decisiones. Los desarrollos en el campo XAI también vendrán rápidamente. La compañía de plataformas de revisión de software G2 espera que las versiones comercializadas de XAI pronto proporcionen a los usuarios finales más herramientas para mirar dentro de la mente de AI.

Empresas como Kyndi y Fiddler ya están anunciando la naturaleza explicable de sus soluciones de aprendizaje automático. Y la Agencia de Proyectos de Investigación Avanzada de Defensa de los Estados Unidos (DARPA) ha invertido en múltiples proyectos de investigación centrados en la adaptación contextual de los avances tecnológicos. La inversión de varios años es parte de la campaña AI Next de la agencia. El objetivo general es desarrollar inteligencia artificial que se pueda hacer en piloto automático sin generar preocupaciones sobre cómo toma decisiones el automóvil detrás de la cortina.

A medida que proliferan estas herramientas, los usuarios esperarán que todos los aspectos de su viaje de datos sean explicables. No pedirán saber exactamente qué está pasando, pero tampoco estarán satisfechos con el enfoque de caja negra de ayer.

La inteligencia artificial mejorará de innumerables maneras durante la próxima década a medida que se transforme en más y más aspectos de la vida cotidiana. Pero los mayores cambios involucrarán nuestras actitudes. A medida que AI adquiera la capacidad de hacer más, y de contarnos cómo lo hace, con gusto le daremos nuevas responsabilidades sin preocuparnos por los riesgos de ceder el control. Piense en ello como una inteligencia artificial sin ansiedad.

Brad Anderson

Brad Anderson

Jefe de redacción en ReadWrite

Brad es el editor que supervisa el contenido proporcionado en ReadWrite.com. Anteriormente trabajó como editor en PayPal y Crunchbase. Puedes contactarlo con Brad en readwrite.com.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *