abril 20, 2021

Bueno, AI, ¿cómo lo explicas?

La explicación de la inteligencia artificial es una de las barreras más importantes para su adopción, pero revelar la lógica puede llevar la relación hombre-máquina al siguiente nivel. El auge de la IA está sobre nosotros, pero una mirada más cercana a casos de uso específicos revela un obstáculo importante para la adopción. En cada vertical, las empresas luchan para aprovechar al máximo las promesas de IA. ¿El mayor punto de dolor? Explicación de la IA.

Este término se refiere al hecho de que la inteligencia artificial es aprendizaje automático Los sistemas son notoriamente opacos. Los modelos de inteligencia artificial más avanzados son cajas negras que no pueden explicar cómo llegaron a una decisión específica. Los datos entran, los resultados salen. Por lo general, los usuarios encuentran que el intento de decodificar la toma de decisiones falla.

La explicabilidad de la IA es una cuestión de confianza.

La falta de explicabilidad de la IA puede ser un punto de quiebre para la adopción. Las empresas a menudo tienen que justificar, tanto legalmente, moralmente o prácticamente: cómo estos modelos toman sus decisiones. Un ejemplo simple sería para las agencias de aplicación de la ley que utilizan plataformas de reconocimiento facial. Si un sistema de IA marca a una persona como sospechosa, el proceso que llevó a la IA a esa persona debe ser verificado.

Pero la razón más común por la que la explicabilidad de la IA impide la adopción es el tema de la confianza. En pocas palabras, a muchas personas les resulta difícil aceptar los resultados cuando carecen de información sobre los factores que los determinaron. A veces, puede parecer que los usuarios humanos se limitan a los caprichos de la máquina.

El problema de la confianza en la IA también afecta la relación empresa-cliente. Según una encuesta reciente de Accenture, «el 72% de los ejecutivos dice que sus organizaciones buscan ganar la confianza de los clientes al ser transparentes en sus decisiones y acciones basadas en inteligencia artificial». Esto, por supuesto, solo se puede lograr si la IA es transparente para los usuarios comerciales.

Revela la lógica.

En su informe, «Las 10 principales tendencias de tecnología de datos y análisis para 2019», Gartner pone la IA explicable en el número 4. Tenga en cuenta que «Para generar confianza con los usuarios y las partes interesadas, los líderes de aplicaciones deben hacer [AI] modelos más interpretables y explicables. «Para que las personas trabajen con máquinas para resolver problemas complejos, los sistemas de inteligencia artificial deben revelar el»porque.»

Los sistemas avanzados de inteligencia artificial incluyen el imperativo de la comunicación. Algunos ya están implementando mecanismos de transparencia. Según Gartner, «la IA explicable en ciencia de datos y plataformas de aprendizaje automático, por ejemplo, genera automáticamente una explicación de los modelos en términos de precisión, atributos, estadísticas del modelo y funcionalidad del lenguaje natural».

Los ingenieros de IA consideran que el ajedrez es un terreno común para el desarrollo de IA debido a sus propiedades basadas en reglas. Si bien la inteligencia artificial con el ajedrez superó a los humanos a fines de la década de 1980, estos sistemas no han podido explicar sus estrategias de juego hasta hace poco. Hasta ahora, las mejores explicaciones eran puramente estadísticas. Por ejemplo, el sistema puede justificar sus recomendaciones al explicar que sus elecciones mejoraron las probabilidades del jugador en una fracción de un porcentaje.

Explicar la próxima generación de IA.

Los sistemas de próxima generación dan forma al pensamiento humano. Proporcionan racional en de la misma manera que una persona. Los motores de ajedrez de vanguardia, por ejemplo, pueden explicar sus elecciones de la siguiente manera: El movimiento «elimina a la reina de una casilla sin apoyo; defiende las dos torres sin soporte; y permitir que la amenaza gane al caballero. «Esta explicación cumple todos los requisitos de una IA explicable óptima sugerida por Accenture. Es comprensible, sucinto, factible, reutilizable, preciso y completo.

Los sistemas de IA explicables sirven mejor tanto al usuario como a la tecnología. Cuando los usuarios entienden la inteligencia artificial, pueden hacer sus propios juicios. El intercambio crea un ciclo de retroalimentación que puede mejorar la funcionalidad de IA. La explicación también aumenta la participación en la IA, que ofrece a los sistemas mayores oportunidades de aprendizaje y mejora.

Es la llamada del ser humano.

El éxito de las futuras plataformas de IA se basará en la transparencia. Estos sistemas deben ofrecer a los usuarios la seguridad que necesitan para confiar en sus decisiones. Cuando invertimos en sistemas de inteligencia artificial, queremos saber cómo llegaron allí. Las plataformas ya están mejorando sus motores de inteligencia artificial con un nivel de conversación, lo que mejora la explicabilidad. Por lo tanto, el usuario tiene total transparencia de las variables consideradas por el sistema y de su razonamiento.

El valor aquí es doble: los usuarios se sienten más seguros usando IA y, por lo tanto, están mucho más inclinados a confiar en la tecnología. Pero lo más importante, pueden usar su propio juicio para analizar la llamada de la máquina. Y, como en el ejemplo del ajedrez, pueden aprender del proceso de toma de decisiones de la máquina para mejorar su juego.

En definitiva, este es el verdadero objetivo de la IA. No para subvertir a las personas a sus decisiones dominantes, sino para permitir que los profesionales aumenten y expandan su conocimiento y desempeño. La inteligencia artificial explicable es la clave de esa relación.

Alon Tvina

CEO

Soy un gerente experimentado, impulsado por la pasión por encontrar soluciones simples a problemas complejos. Como innovador con experiencia en inteligencia artificial y big data en todo el dominio digital, he liderado equipos en empresas consolidadas y nuevas empresas, empujando los límites de la tecnología para resolver problemas complejos relacionados con el comportamiento humano. Actualmente conduzco Novarize, una startup B2B disruptiva que conecta las marcas de consumo con sus mejores clientes.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *