marzo 17, 2025

Porque incorporar la ética y los principios de la IA en su organización es fundamental

¿No pudo participar en Transform 2022? ¡Vea todas las sesiones de Summit en nuestra biblioteca on-demand ahora! Mira aquí.


A medida que avanza la tecnología, los líderes empresariales comprenden la necesidad de adoptar soluciones empresariales aprovechando la inteligencia artificial (IA). Sin embargo, existe una vacilación comprensible debido a las implicaciones éticas de esta tecnología: ¿Es la IA inherentemente sesgada, racista o sexista? ¿Y qué impacto podría tener en mi negocio?

Es importante recordar que los sistemas de inteligencia artificial son inherentemente nada. Son herramientas construidas por humanos y pueden mantener o amplificar cualquier sesgo que exista en los humanos que las desarrollan o en aquellos que crean los datos utilizados para entrenarlos y evaluarlos. En otras palabras, un modelo de IA perfecto no es más que un reflejo de sus usuarios. Nosotros, como humanos, elegimos los datos que se utilizan en la IA y lo hacemos a pesar de nuestros sesgos inherentes.

En última instancia, todos estamos sujetos a una variedad de sesgos sociológicos y cognitivos. Si somos conscientes de estos sesgos y continuamente implementamos medidas para ayudar a combatirlos, continuaremos progresando en minimizar el daño que estos sesgos pueden causar cuando se integran en nuestros sistemas.

Examine la IA ética hoy

El énfasis organizacional en la ética de la IA tiene dos polos. El primero está relacionado con la gobernanza de la IA, que se ocupa de lo que está permitido en el campo de la IA, desde el desarrollo hasta la adopción y el uso.

Evento

MetaBeat 2022

MetaBeat reunirá a líderes de opinión para brindar información sobre cómo la tecnología del metaverso transformará la forma en que todas las industrias se comunican y hacen negocios el 4 de octubre en San Francisco, California.

Registrarse aquí

El segundo aborda la investigación sobre la ética de la inteligencia artificial con el objetivo de comprender las características intrínsecas de los modelos de inteligencia artificial como resultado de determinadas prácticas de desarrollo y sus riesgos potenciales. Creemos que las enseñanzas de este campo seguirán matizándose más. Por ejemplo, la investigación actual se centra en gran medida en modelos básicos y, en los próximos años, se centrará en tareas posteriores más pequeñas que pueden mitigar o propagar las desventajas de estos modelos.

La adopción universal de la IA en todos los aspectos de la vida requerirá pensar en su poder, propósito e impacto. Esto se hace enfocándose en la ética de la IA y exigiendo que la IA se use éticamente. Por supuesto, el primer paso para lograr esto es ponerse de acuerdo sobre lo que significa usar y desarrollar IA de manera ética.

Un paso hacia la optimización de productos para obtener resultados equitativos e inclusivos es tener conjuntos de datos de capacitación, desarrollo y prueba equitativos e inclusivos. El desafío es que seleccionar datos de alta calidad no es una tarea trivial. Puede ser difícil obtener este tipo de conjunto de datos, especialmente para las empresas emergentes más pequeñas, porque muchos datos de capacitación fácilmente disponibles contienen sesgos. Además, es útil agregar técnicas de eliminación de sesgo y procesos de evaluación de modelos automatizados al proceso de aumento de datos y comenzar con prácticas de documentación de datos en profundidad desde el principio para que los desarrolladores tengan una idea clara de lo que necesitan para aumentar los conjuntos de datos. deciden usar.

El costo de la IA imparcial

Las banderas rojas existen en todas partes y los líderes tecnológicos deben estar abiertos a verlas. Dado que el sesgo es hasta cierto punto inevitable, es importante considerar el caso de uso principal de un sistema: los sistemas de toma de decisiones que pueden afectar la vida humana (es decir, la detección automatizada de CV o la vigilancia predictiva) tienen el potencial de causar un daño incalculable. En otras palabras, el propósito central de un modelo de IA puede ser en sí mismo una señal de alerta. Las organizaciones de tecnología deben examinar abiertamente cuál es el propósito de un modelo de IA para determinar si ese propósito es ético.

Además, es cada vez más común depender de conjuntos de datos grandes y relativamente no tratados (como Common Crawl e ImageNet) para entrenar sistemas centrales que posteriormente se “ajustan” a casos de uso específicos. Se ha demostrado repetidamente que estos grandes conjuntos de datos extraídos contienen lenguaje activamente discriminatorio y/o desequilibrios desproporcionados en la distribución de sus categorías. Por esta razón, es importante que los desarrolladores de IA examinen minuciosamente los datos que utilizarán desde la génesis de su proyecto al construir un nuevo sistema de IA.

Más barato al final

Como se mencionó, los recursos para nuevas empresas y algunas empresas tecnológicas pueden entrar en juego con los esfuerzos y costos invertidos en estos sistemas. Los modelos de IA completamente desarrollados ciertamente pueden parecer más costosos al principio del diseño. Por ejemplo, crear, encontrar y comprar conjuntos de datos de alta calidad puede resultar costoso en términos de tiempo y dinero. Del mismo modo, aumentar los conjuntos de datos faltantes puede requerir tiempo y recursos. También se necesita tiempo, dinero y recursos para encontrar y contratar a diferentes candidatos.

A la larga, sin embargo, la diligencia debida será menos costosa. Por ejemplo, sus modelos funcionarán mejor, no enfrentará errores éticos a gran escala y no sufrirá las consecuencias de un daño prolongado a varios miembros de la sociedad. Además, gastará menos recursos en demoler y rediseñar modelos a gran escala que se han vuelto demasiado sesgados y engorrosos para reparar, recursos que se gastan mejor en tecnologías innovadoras que se usan para siempre.

Si somos mejores, la IA es mejor

La IA inclusiva requiere que los líderes tecnológicos intenten de forma proactiva limitar los sesgos humanos que se introducen en sus modelos. Esto requiere un énfasis en la inclusión no solo en la IA, sino en la tecnología en general. Las organizaciones deben pensar claramente sobre la ética de la IA y promover estrategias para limitar el sesgo, como revisiones periódicas de qué datos se utilizan y por qué.

Las empresas también deben optar por vivir plenamente estos valores. La capacitación en inclusión y la contratación de diversidad, equidad e inclusión (DE&I, por sus siglas en inglés) son excelentes comienzos y deben ser respaldados significativamente por la cultura del lugar de trabajo. A partir de esto, las empresas deben alentar y normalizar activamente el diálogo inclusivo dentro de la discusión sobre IA, así como en un entorno de trabajo más amplio, haciéndonos mejores empleados y, a su vez, mejorando las tecnologías de IA.

Por el lado del desarrollo, hay tres focos principales de atención para que la IA pueda adaptarse mejor a los usuarios finales independientemente de los diferenciadores: comprensión, acción y transparencia.

En términos de comprensión, se necesitan verificaciones sistemáticas de sesgo para garantizar que el modelo haga todo lo posible para ofrecer un juicio no discriminatorio. Una fuente importante de sesgo en los modelos de IA es el comienzo de los desarrolladores de datos. Si los datos de entrenamiento están sesgados, el modelo tendrá ese sesgo incorporado. Nos centramos mucho en la IA centrada en los datos, lo que significa que hacemos todo lo posible desde el principio del diseño del modelo, es decir, seleccionamos los datos de entrenamiento apropiados, para crear conjuntos de datos óptimos para el desarrollo del modelo. Sin embargo, no todos los conjuntos de datos son iguales y los datos del mundo real pueden estar sesgados de muchas maneras; a veces tenemos que trabajar con datos que podrían estar sesgados.

Datos representativos

Una técnica para practicar una mejor comprensión es la evaluación desagregada, que mide el desempeño en subconjuntos de datos que representan grupos específicos de usuarios. Los modelos son buenos para engañar a los datos complejos, e incluso si las variables como la raza o la orientación sexual no se incluyeron explícitamente, pueden sorprenderlo al descubrirlo y aun así discriminar a estos grupos. Una verificación específica de esto ayudará a arrojar algo de luz sobre lo que el modelo realmente está haciendo (y lo que no está haciendo).

Al tomar medidas después de obtener una mejor comprensión, utilizamos varias técnicas de eliminación de prejuicios. Estos incluyen conjuntos de datos equilibrados positivamente para representar a las minorías, aumentar los datos y codificar características sensibles de una manera específica para reducir su impacto. En otras palabras, ejecutamos pruebas para comprender dónde nuestro modelo podría carecer de datos de entrenamiento y luego aumentamos los conjuntos de datos en esas áreas para mejorar continuamente cuando se trata de eliminar el sesgo.

Finalmente, es importante ser transparente al informar los datos y el rendimiento del modelo. En pocas palabras, si ha encontrado que su modelo discrimina a alguien, dígalo y acéptelo.

El futuro de las aplicaciones éticas de IA

Hoy, las empresas están cruzando el abismo en la adopción de IA. Estamos viendo en la comunidad de empresa a empresa que muchas organizaciones están adoptando IA para resolver problemas frecuentes y repetitivos y aprovechar la IA para obtener información en tiempo real sobre los conjuntos de datos existentes. Experimentamos estas capacidades en una multitud de áreas de nuestra vida personal, como nuestros consejos de Netflix para analizar el sentimiento de cientos de conversaciones de clientes en los negocios.

Mientras no haya regulaciones de arriba hacia abajo con respecto al desarrollo ético y el uso de la IA, no se pueden hacer predicciones. Nuestros principios éticos de IA en Dialpad son una forma de responsabilizarnos por la tecnología de IA aprovechada en nuestros productos y servicios. Muchas otras empresas tecnológicas se han unido a nosotros para promover la ética de la IA mediante la publicación de principios éticos similares, y aplaudimos estos esfuerzos.

Sin embargo, sin responsabilidad externa (a través de regulaciones gubernamentales o estándares y certificaciones de la industria), siempre habrá actores que intencionalmente o por negligencia desarrollen y utilicen IA que no se centre en la inclusión.

No hay futuro sin IA (ética).

Los peligros son reales y prácticos. Como hemos dicho muchas veces, la IA impregna todo lo que hacemos a nivel profesional y personal. Si no está priorizando la inclusión (entre otros principios éticos), inherentemente está permitiendo que su modelo esté sujeto a sesgos abiertos o internos. Esto significa que los usuarios de esos modelos de IA, a menudo sin saberlo, están digiriendo los resultados sesgados, que tienen consecuencias prácticas para la vida cotidiana.

Probablemente no haya futuro sin IA, ya que se vuelve cada vez más frecuente en nuestra sociedad. Tiene el potencial de aumentar en gran medida nuestra productividad, nuestras elecciones personales, nuestros hábitos y, de hecho, nuestra felicidad. El desarrollo ético y el uso de la IA no son un tema controvertido, y es una responsabilidad social que debemos tomar en serio y esperar que otros también lo hagan.

El desarrollo y uso de la IA en mi organización es una subsección menor de la IA en nuestro mundo. Estamos comprometidos con nuestros principios éticos y esperamos que otras empresas tecnológicas también lo hagan.

Dan O’Connell es CSO de Dialpad

Tomadores de decisiones de datos

¡Bienvenido a la comunidad VentureBeat!

DataDecisionMakers es el lugar donde los expertos, incluidos los ingenieros de datos, pueden compartir ideas e innovaciones relacionadas con los datos.

Si desea leer ideas de vanguardia e información actualizada, las mejores prácticas y el futuro de los datos y la tecnología de datos, únase a nosotros en DataDecisionMakers.

¡Incluso podría considerar contribuir con su propio artículo!

Leer más de DataDecisionMakers

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *