abril 18, 2024

Cómo la IA complica la gestión de riesgos empresariales

Mejore la tecnología y la estrategia de datos empresariales en Transform 2021.


A pesar de los beneficios que la IA ya ha aportado a la empresa, todavía existe mucha tensión sobre su potencial de consecuencias no deseadas. Si bien los titulares tienden a centrarse en la IA enloqueciendo y destruyendo a toda la humanidad, la realidad práctica es que las generaciones actuales de IA tienen más probabilidades de causar estragos en los procesos comerciales y las ganancias si no se gestionan correctamente.

Pero, ¿cómo se puede controlar algo que, por su naturaleza, debería actuar de forma autónoma? Y al hacerlo, ¿no se interpondrá la empresa en lo que hace que la IA sea un activo tan valioso en el lugar de trabajo?

La inteligencia artificial ha salido mal

El director ejecutivo de OnCorps, Bob Suh, ofrece una buena descripción general del daño que puede causar la IA, incluso cuando se utiliza con las mejores intenciones. Las experiencias de las plataformas de redes sociales ilustran cómo los algoritmos mal diseñados pueden producir un conjunto de resultados positivos (más intercambio) y al mismo tiempo promulgar resultados negativos (desinformación y manipulación). Es justo decir que los ejecutivos de Facebook y Twitter no tenían la intención de que sus plataformas fomentaran el conflicto y la animosidad en la sociedad, pero enfocaron sus esfuerzos en maximizar las ganancias, así que eso es lo que hicieron sus agentes de aprendizaje por refuerzo (RLA).

Los RLA se basan en funciones de recompensa simples donde los resultados positivos incitan al agente a expandir y refinar sus acciones. Sin un mecanismo de recompensa compensatoria, el agente seguirá mejorando en lo que hace incluso si ya no produce un resultado deseable. De esta manera, los bots de las redes sociales tuvieron mucho éxito en lograr sus objetivos previstos a pesar de que estaban siendo manipulados por algunos en la comunidad de usuarios para armar a la opinión pública y sembrar la discordia entre la población.

Estos mismos problemas pueden surgir en ventas, marketing y otras funciones. Y, desafortunadamente, pocas organizaciones están equipadas para identificar y corregir algoritmos que conducen a resultados no deseados hasta que el daño está hecho. Esto puede tomar la forma de todo, desde ingresos perdidos y oportunidades de mercado perdidas, hasta brechas de seguridad y daños a las instalaciones y procesos internos.

Básicamente, implementar controles adecuados sobre la IA es una forma de gestión de riesgos. Sin embargo, debido a su naturaleza autónoma, la IA requiere un poco más de atención que la TI estándar, dicen los socios de McKinsey Juan Aristi Baquero, Roger Burkhardt, Arvind Govindarajan y Thomas Wallace. Por un lado, la inteligencia artificial presenta una serie de riesgos desconocidos en múltiples disciplinas, incluido el cumplimiento, las operaciones, el legal y la normativa. Los bancos, por ejemplo, han estado preocupados durante mucho tiempo por el sesgo de sus empleados humanos, pero si esos empleados comienzan a hacer recomendaciones basadas en lo que les dice una IA sesgada, la institución ahora ha sistematizado ese sesgo en su proceso de toma de decisiones.

Otro problema es cómo la IA se está descentralizando rápidamente dentro de la empresa, lo que dificulta el seguimiento y la supervisión. Y a medida que las diversas implementaciones de IA de múltiples proveedores, socios y otras entidades comienzan a comunicarse entre sí, aumenta el potencial de introducir nuevos riesgos. Una nueva herramienta dentro de la plataforma CRM de un proveedor, por ejemplo, podría crear riesgos de privacidad y cumplimiento de datos en múltiples geografías.

Gestión anticipada

La mejor manera de gestionar estos riesgos es implementar los controles adecuados antes de que la IA se integre en la estructura de la empresa, según Todd Bialick, jefe de seguridad digital y transparencia de PwC. Para hacer esto, deberá realizar una revisión exhaustiva de todo lo que la IA toca mientras busca cumplir su mandato. Esto incluye políticas a nivel de datos que rigen la entrada y selección de conjuntos, supervisión y transparencia en el desarrollo de algoritmos y modelos, revisión continua de resultados y decisiones, y control total sobre la seguridad lógica, cálculo de operaciones y desarrollo y modificación del programa.

La formación de la IA para que se comporte de forma ética también es un campo emergente, pero extremadamente incipiente, que ha atraído el interés de organizaciones públicas y privadas. Una de las principales dificultades es que la ética es una disciplina muy subjetiva, donde las acciones éticas en un conjunto de circunstancias pueden ser poco éticas en otro. Pero como señala James Kobielus, director senior de investigación para la gestión de datos en TDWI, la responsabilidad ética última debe recaer en los seres humanos, no en los objetos inanimados, por muy inteligentes que parezcan. Para evitar que la IA “se vuelva deshonesta”, siempre debe incorporar los intereses humanos como un elemento central, y esto puede manifestarse en todo, desde las decisiones que toma hasta su apariencia. Además, la transparencia en el linaje de inferencia de la IA puede ser necesaria para garantizar que haya un rastro de control para los humanos que lo crearon.

En última instancia, por supuesto, la gestión de la IA es una cuestión de confianza. Las organizaciones harían bien en tratar a la IA como cualquier otro empleado: asignarle un conjunto limitado de responsabilidades, ver cómo se comporta y luego promoverla a niveles más altos de autoridad después de que haya demostrado ser capaz y valiosa. Así como no nombrará a un recién graduado como su nuevo CIO, no pondrá a AI a cargo de la administración de ventas de nivel C o de recursos humanos.

Si bien el riesgo de consecuencias no deseadas nunca se puede reducir a cero, hay muchas probabilidades de que, de alguna manera, los humanos y la IA encuentren la manera de trabajar juntos. Y dado que ambas formas de inteligencia brindan fortalezas que compensan las debilidades del otro, es más que probable que su relación sea mutuamente beneficiosa, no hostil.

VentureBeat

La misión de VentureBeat es ser una plaza urbana digital para que los responsables de la toma de decisiones técnicas obtengan información sobre la tecnología y las transacciones transformadoras. Nuestro sitio proporciona información esencial sobre tecnologías y estrategias de datos para guiarlo en el liderazgo de sus organizaciones. Te invitamos a convertirte en miembro de nuestra comunidad, para acceder a:

  • información actualizada sobre temas de su interés
  • nuestros boletines
  • contenido privado líder en el pensamiento y acceso con descuento a nuestros valiosos eventos, como Transformar 2021: Para saber mas
  • funciones de red y más

Hágase miembro

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *