junio 29, 2022

AI Weekly: los nuevos movimientos de Microsoft en IA responsable

Estamos emocionados de traer Transform 2022 en persona el 19 de julio y virtualmente del 20 al 28 de julio. Únase a los líderes de inteligencia artificial y datos para discusiones en profundidad y oportunidades emocionantes para establecer contactos. ¡Regístrese hoy!


¿Quieres AI Weekly gratis todos los jueves en tu bandeja de entrada? Registrate aquí.


Podríamos disfrutar de los primeros días del verano, pero AI News nunca descansa para sentarse en la playa, pasear bajo el sol o encender la barbacoa.

De hecho, puede ser difícil mantenerse al día. En los últimos días, por ejemplo, ha sucedido todo esto:

  • Los anuncios de Amazon re: MARS llevaron a que los medios negaran posibles problemas éticos y de seguridad (y peculiaridades generales) sobre la nueva capacidad de Alexa para replicar las voces de las personas muertas.
  • Más de 300 investigadores han firmado una carta abierta condenando el despliegue de GPT-4chan.
  • Google ha lanzado otro modelo de texto a imagen, Parts.
  • Reservé mi vuelo a San Francisco para asistir a la Cumbre Ejecutiva de VentureBeat en Transform el 19 de julio. (Está bien, eso no es realmente nuevo, pero no puedo esperar para ver finalmente a la comunidad de IA y datos unirse en la vida real. ¿Nos vemos allí?)

Pero esta semana, me estoy enfocando en el lanzamiento de una nueva versión de su Estándar de inteligencia artificial responsable por parte de Microsoft, así como en el anuncio de esta semana de que planea dejar de vender herramientas de análisis facial en Azure.

Bajamos.

Sharon Goldmaneditor en jefe y escritor

El latido del corazón de la IA de esta semana

La IA responsable ha estado en el centro de muchos de los anuncios de Microsoft Build este año. Y no hay duda de que Microsoft ha estado abordando problemas de inteligencia artificial responsable desde al menos 2018 y ha presionado para que se legisle para regular la tecnología de reconocimiento facial.

El lanzamiento de Microsoft esta semana de la versión 2 de su Estándar de IA responsable es un buen próximo paso, dicen los expertos en IA, aunque todavía queda mucho por hacer. Y aunque se acaba de mencionar en el Estándar, el anuncio ampliamente cubierto de Microsoft de que retirará el acceso público a las herramientas de reconocimiento facial en Azure, debido a preocupaciones sobre sesgo, invasividad y confiabilidad, se consideró parte de una revisión más amplia de la ética de la IA de Microsoft. políticas

El «gran paso adelante» de Microsoft en IA responsable específica estándar

Según el científico informático Ben Shneiderman, autor de Human-Centered AI, el nuevo estándar de IA responsable de Microsoft es un gran paso adelante con respecto a las 18 pautas de Microsoft para la interacción entre humanos e inteligencia artificial.

«Los nuevos estándares son mucho más específicos, pasando de las preocupaciones éticas a las prácticas de gestión, los flujos de trabajo de ingeniería de software y los requisitos de documentación», dijo.

Abhishek Gupta, líder sénior de IA en Boston Consulting Group e investigador principal en el Instituto de Ética de IA de Montreal, está de acuerdo y establece el nuevo estándar como «un soplo de aire fresco muy necesario, porque va un paso más allá de los principios de alto nivel». sido la norma hasta ahora”, dijo.

El mapeo de los principios previamente articulados a subobjetivos específicos y su aplicabilidad a los tipos de sistemas de inteligencia artificial y las etapas del ciclo de vida de la IA lo convierte en un documento viable, explicó, al tiempo que significa que los profesionales y operadores «pueden superar el abrumador grado de vaguedad que experimentan cuando intentan poner en práctica los principios”.

Distorsiones no resueltas y riesgos de privacidad

Dado el sesgo no resuelto y los riesgos de privacidad en la tecnología de reconocimiento facial, la decisión de Microsoft de dejar de vender su herramienta Azure es «muy responsable», agregó Gupta. «Es el primer peldaño en mi creencia de que en lugar de una mentalidad de» moverse rápido y romper las cosas «, tenemos que adoptar una mentalidad de» evolucionar responsablemente rápido y arreglar las cosas «.

Pero Annette Zimmerman, analista vicepresidenta de Gartner, dice que cree que Microsoft está eliminando la demografía facial y la detección de emociones simplemente porque es posible que la empresa no tenga control sobre cómo se usa.

«Es el tema controvertido continuo de rastrear datos demográficos, como el sexo y la edad, posiblemente emparejarlos con emociones y usarlos para tomar una decisión que afectará a esta persona que está siendo evaluada, como una decisión de préstamo o venta de préstamo», dijo. explicado. “Dado que el principal problema es que estas decisiones podrían estar sesgadas, Microsoft está eliminando gradualmente esta tecnología. Incluido la detección de emociones.

Productos como los de Microsoft, que son SDK o API que se pueden integrar en una aplicación sobre la que Microsoft no tiene control, son diferentes de las soluciones de extremo a extremo y los productos dedicados donde hay una transparencia total, agregó.

«Los productos que detectan emociones con fines de investigación de mercado, narración de historias o experiencia del cliente, todos los cuales son casos en los que no se toma una decisión que no sea mejorar un servicio, seguirán prosperando en este mercado tecnológico», dijo.

Lo que le falta al estándar de inteligencia artificial responsable de Microsoft

Microsoft todavía tiene mucho trabajo por hacer en lo que respecta a la IA responsable, dicen los expertos.

Lo que falta, dijo Shneiderman, son requisitos para cosas como pistas de control o grabación; control independiente; sitios web de informes públicos de incidentes; disponibilidad de documentos e informes para las partes interesadas, incluidos periodistas, grupos de interés público, profesionales de la industria; informes abiertos de los problemas encontrados; y transparencia en el proceso de Microsoft para la revisión interna de proyectos.

Un factor que merece más atención es tener en cuenta los impactos ambientales de los sistemas de inteligencia artificial, «especialmente dado el trabajo que hace Microsoft en modelos a gran escala», dijo Gupta. “Mi recomendación es comenzar a pensar en consideraciones ambientales como ciudadano de primera junto con consideraciones comerciales y funcionales en el diseño, desarrollo e implementación de sistemas de inteligencia artificial”, dijo.

El futuro de la IA responsable

Gupta predijo que se espera que los anuncios de Microsoft desencadenen acciones salientes similares de otras empresas durante los próximos 12 meses.

«También podemos ver el lanzamiento de más herramientas y funciones dentro de la plataforma Azure que harán que algunos de los estándares mencionados en su Estándar de IA responsable sean más accesibles para los clientes de la plataforma Azure, democratizando así las capacidades RAI para aquellos que no necesariamente tienen la recursos para hacerlo usted mismo «, dijo.

Shneiderman dijo que esperaba que otras compañías jugaran su juego en esta dirección, señalando AI Fairness 360 de IBM y enfoques relacionados, así como la Guía de personas e investigación sobre inteligencia artificial (PAIR) de Google.

«La buena noticia es que las empresas grandes y pequeñas están pasando de principios éticos vagos a prácticas comerciales específicas al exigir algunas formas de documentación, informar inquietudes y compartir información con ciertas partes interesadas / clientes», dijo, y agregó que es necesario hacerlo para hacer que estos sistemas estén abiertos a la revisión pública: «Creo que hay un reconocimiento creciente de que los sistemas de IA fallidos generan una atención pública negativa sustancial, lo que hace que los sistemas de IA confiables, seguros y confiables sean una ventaja competitiva».

Deja una respuesta

Tu dirección de correo electrónico no será publicada.