diciembre 9, 2022

Porque la ética de la IA debe abordar la alfabetización en IA, no solo los prejuicios

Contenidos

Todas las sesiones de Transform 2021 ahora están disponibles bajo demanda. Mira ahora.


Las mujeres en el campo de la IA están avanzando en la investigación, liderando debates éticos vitales e inspirando a la próxima generación de profesionales de la IA. Creamos los premios VentureBeat Women in AI para resaltar la importancia de su voz, trabajo y experiencia y para arrojar luz sobre algunos de estos líderes. En esta serie, que publicamos los viernes, profundizamos en las conversaciones con los de este año ganadores, que recientemente honramos a un Transformar 2021. Ver la entrevista de la semana pasada con el ganador de nuestro premio a la investigación en IA.

Cuando escuchas sobre la ética de la IA, se trata principalmente de prejuicios. Pero Noelle Silver, ganadora del premio Women in AI de responsabilidad y ética de VentureBeat, se dedicó a una parte que a menudo se pasa por alto de la ecuación de AI responsable: la alfabetización en AI.

«Esta es mi visión, es que realmente aumentemos la alfabetización en todos los ámbitos», le dijo a VentureBeat sobre su esfuerzo por educar a todos, desde ejecutivos hasta adolescentes, sobre cómo abordar la IA de una manera más reflexiva.

Después de aparecer en demasiadas salas de reuniones que solo podían ver lo bueno de la IA, Silver comenzó a ver esta falta de conocimiento y capacidad para hacer las preguntas importantes como un peligro. Ahora es una defensora constante de la comprensión pública de la IA y también ha establecido varias iniciativas para apoyar a las mujeres y las comunidades subrepresentadas.

Estamos encantados de presentar este merecido premio a Silver. Recientemente nos reunimos con ella para hablar más sobre la inspiración para su trabajo, los conceptos erróneos sobre la IA responsable y cómo las empresas pueden asegurarse de que la ética de la IA sea más que una casilla para marcar.

VentureBeat: ¿Cuál diría que es su perspectiva única cuando se trata de IA? ¿Qué impulsa tu trabajo?

Noelle Silver: Me guía el hecho de que tengo una casa llena de personas que consumen inteligencia artificial por diversos motivos. Está mi hijo con síndrome de Down y me interesa hacer que el mundo sea accesible para él. Y luego mi padre, que tiene 72 años y ha sufrido una lesión en la cabeza, por lo que no puede usar un teléfono inteligente y no tiene una computadora. La accesibilidad es una parte importante y para los productos en los que tengo la oportunidad de participar, quiero asegurarme de representar estas perspectivas.

Siempre bromeo sobre cómo cuando empezamos con Alexa, era uno de los proyectos favoritos de Jeff Bezos. No estábamos pensando conscientemente en lo que esto podría hacer por las aulas, los hogares de ancianos o las personas con dificultades con el idioma. Pero todos estos son casos de uso realmente relevantes en los que Amazon Alexa ha invertido ahora. Siempre cito a Arthur C. Clarke, quien dijo: «Cualquier tecnología lo suficientemente avanzada es indistinguible de la magia». Y esto es cierto para mi padre. Cuando usa Alexa, dice «¡Eso es genial!» Sientes que lo confunde, pero la realidad es que hay alguien como yo con los dedos en un teclado construyendo el modelo que soporta esa magia. Y creo que ser transparentes y hacer saber a la gente que hay humanos que los obligan a hacer lo que hacen, y cuanto más diversos e inclusivos puedan ser estos humanos en su desarrollo, mejor. Así que aprendí esa lección y ahora he hablado con cientos de ejecutivos y juntas directivas de todo el mundo para educarlos sobre las preguntas que deben hacerse.

VentureBeat: Ha creado varias iniciativas que defienden mujeres y comunidades subrepresentadas dentro de la comunidad de IA, incluido el Instituto de Liderazgo de IA, Mujeres en IA y más. ¿Qué te llevó a lanzar estos grupos? ¿Y cuál es su plan y esperanza para ellos en un futuro próximo y a largo plazo?

Plata: Lancé el AI Leadership Institute hace seis años porque me pidieron, como parte de mi profesión, que fuera a hablar con ejecutivos y juntas de AI. Y estaba vendiendo un producto, así que estaba allí para, ya sabes, hablar sobre el arte de lo posible y emocionarlos, lo cual fue fácil de hacer. Pero descubrí que efectivamente había una falta de alfabetización al más alto nivel. Y el hecho de que aquellos con presupuestos no tuvieran esa alfabetización hizo que fuera peligroso que alguien como yo pudiera contar una buena historia y aprovechar los sentimientos optimistas de la IA y no pudiera reconocer que no es el único camino. Digo lo bueno y lo malo, pero ¿y si alguien intenta que haga algo sin ser igualmente transparente? Entonces, comencé ese instituto de liderazgo con el apoyo de AWS, Alexa y Microsoft para tratar de educar a estos ejecutivos.

Un par de años después, me di cuenta de que había muy poca diversidad en las salas de reuniones en las que estaba presentando, y eso me preocupó. Conocí a la Dra. Safiya Noble, que acababa de escribir Algoritmos de opresión sobre la locura que fueron los algoritmos de Google hace años. Ya sabes, escribes «CEO» y solo te muestra hombres blancos, ese tipo de cosas. Esta fue una señal de un problema mucho mayor, pero descubrí que su trabajo no era muy conocido. Ella no fue una oradora principal en los eventos a los que asistí; fue como una sesión secundaria. Y sentí que el trabajo era fundamental. Entonces comencé Women in AI solo para ser un mecanismo para hacerlo. Hice una serie de TikTok sobre 12 mujeres afroamericanas en IA, y esto se convirtió en una serie de blogs, que se convirtió en una comunidad. Tengo una habilidad única, diré, para apoyar ese trabajo y, por lo tanto, sentí que era mi misión.

VentureBeat: Me alegra que hayas mencionado TikTok porque iba a decir que además de las discusiones en la sala de juntas, te he visto hablar sobre la creación de mejores modelos y una IA responsable en todas partes, desde TikTok hasta Clubhouse, etc. Con eso, ¿espera llegar a las masas, captar la atención del usuario promedio y aumentar la conciencia de los tomadores de decisiones de esta manera?

Plata: Sí, eso es correcto. El año pasado tomé un curso de aprendizaje en LinkedIn sobre cómo detectar deepfakes y terminamos con tres millones de estudiantes. Creo que tres o cuatro de los videos se volvieron virales. Y esto no era YouTube con su elaborado modelo de búsqueda que generará tráfico o lo que sea, ¿verdad? Entonces comencé a hacer más contenido de alfabetización de IA más tarde porque me mostró que la gente quiere aprender sobre estas tecnologías emergentes. Y tengo adolescentes y sé que van a dirigir estas empresas. Entonces, ¿qué mejor manera de evitar el sesgo sistémico que educarlos sobre estos principios de ingeniería inclusivos, hacer mejores preguntas y diseñar la justicia? ¿Y si lo enseñáramos en la escuela secundaria o preparatoria? Y es gracioso porque mis ejecutivos no son a quienes les muestro mis videos de TikTok, pero estuve hablando por teléfono con uno recientemente y escuché a su hija de séptimo grado preguntar: «Dios mío. la ¿Noelle Silver? Y yo estaba como, ya sabes, ahí es cuando lo tienes, cuando tienes al séptimo reclutador y al CEO en la misma página.

VentureBeat: La idea de una inteligencia artificial responsable y una ética de la inteligencia artificial finalmente está comenzando a recibir la atención que necesita. ¿Pero tienes miedo o ya tienes la sensación de que se está convirtiendo en una palabra de moda? ¿Cómo podemos asegurarnos de que este trabajo sea real y no una casilla de verificación?

Plata: Es una de esas cosas para las que las empresas se dan cuenta de que necesitan tener una respuesta, lo cual es genial. Además, están creando equipos. Lo que me preocupa es, ¿cómo están impactando estos equipos? Cuando veo algo éticamente incorrecto en un modelo y sé que no servirá a las personas a las que está destinado, o sé que dañará a alguien, cuando tiro de la cadena como científico de datos y digo «no deberíamos hacer esto» , ¿Qué pasa entonces? La mayoría de estas organizaciones éticas no tienen la autoridad para detener la producción. Es como la diversidad y la inclusión: todo está bien hasta que me digas que esto retrasará el lanzamiento y perderemos $ 2 mil millones en ingresos durante cinco años. He tenido directores ejecutivos que me han dicho: «Haré lo que me pidas, pero en el momento en que pierda dinero, no puedo hacerlo más. Tengo partes interesadas a las que servir». Entonces, si no les damos a estos equipos la autoridad para hacer algo, terminarán como muchos de los especialistas en ética que hemos visto y se irán o serán expulsados.

VentureBeat: ¿Existe algún concepto erróneo sobre el impulso hacia una IA responsable que considere importante aclarar? ¿O algo importante que a menudo se pasa por alto?

Plata: Creo que lo más importante es que la gente a menudo solo piensa en la IA y los prejuicios éticos y responsables, pero también se trata de cómo educamos a los usuarios y las comunidades que consumen esta IA. Todas las empresas estarán impulsadas por los datos y eso significa que todos los miembros de la empresa deben comprender el impacto de lo que pueden hacer los datos y cómo deben protegerse. Estas reglas apenas existen para los equipos que crean y almacenan datos, y definitivamente no existen para otras personas dentro de una empresa que puedan encontrar esos datos. La ética de la IA no es solo para profesionales; es mucho más holístico que eso.

VentureBeat: ¿Qué consejo le daría a las empresas que crean o implementan tecnologías de inteligencia artificial sobre cómo abordarlas de manera más responsable?

Plata: La razón por la que fui a Red Hat es porque realmente creo en las comunidades de código abierto donde diferentes empresas se unen para resolver problemas comunes y construir cosas mejores. ¿Qué sucede cuando la atención médica se encuentra con las finanzas? ¿Qué sucede cuando nos unimos y compartimos nuestros desafíos y prácticas éticas y construimos una solución que llega a más personas? Especialmente cuando consideras cosas como Kubernetes, que casi todas las empresas usan para lanzar sus aplicaciones. Entonces, ser parte de una comunidad de código abierto donde puede colaborar y crear soluciones que sirvan a más personas fuera de su alcance limitado, creo que eso es algo bueno.

VentureBeat

La misión de VentureBeat es ser una plaza urbana digital para que los responsables de la toma de decisiones técnicas obtengan información sobre la tecnología y las transacciones transformadoras. Nuestro sitio proporciona información esencial sobre tecnologías y estrategias de datos para guiarlo en el liderazgo de sus organizaciones. Te invitamos a convertirte en miembro de nuestra comunidad, para acceder a:

  • información actualizada sobre temas de su interés
  • nuestros boletines
  • contenido privado líder en el pensamiento y acceso con descuento a nuestros valiosos eventos, como Transformar 2021: Para saber mas
  • funciones de red y más

Hágase miembro

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *