MinDiff de Google tiene como objetivo mitigar el sesgo injusto en los clasificadores

Google lanzó hoy MinDiff, un nuevo marco para mitigar (pero no eliminar) el sesgo injusto al entrenar modelos de inteligencia artificial y aprendizaje automático. La compañía dice que MinDiff, la culminación de años de trabajo, ya se ha incorporado a varios productos de Google, incluidos modelos que moderan la calidad del contenido.

La actividad de clasificación, que implica ordenar los datos en categorías etiquetadas, está sujeta a sesgos hacia grupos subrepresentados en los conjuntos de datos de entrenamiento del modelo. Una de las métricas más utilizadas para medir este sesgo es la igualdad de oportunidades, que busca minimizar las diferencias en la tasa de falsos positivos entre diferentes grupos. Pero a menudo es difícil lograr un equilibrio debido a la escasez de datos demográficos, la naturaleza no intuitiva de las herramientas de desvanecimiento y las compensaciones inaceptables en la precisión.

MinDiff aprovecha lo que se denomina enfoques en proceso en los que el objetivo de formar un modelo se incrementa con un enfoque en eliminar el sesgo. Este nuevo objetivo luego se optimiza en una pequeña muestra de datos con información demográfica conocida. Dadas dos piezas de datos, MinDiff funciona penalizando el modelo por las diferencias en las distribuciones de puntajes entre los dos conjuntos, de modo que cuando el modelo entrene, tratará de minimizar la penalización acercándose a las distribuciones.

Equidad de Google MinDiff AI

Para mejorar la facilidad de uso, los investigadores de Google pasaron de la formación antagónica a un marco de regularización, que penaliza la dependencia estadística entre sus predicciones y la información demográfica para ejemplos inofensivos. Esto anima a los modelos a igualar las tasas de error en todos los grupos.

MinDiff minimiza la correlación entre los pronósticos y el grupo demográfico, lo que optimiza la media y la varianza de los pronósticos para que sean iguales entre los grupos incluso si las distribuciones difieren más tarde. También considera la pérdida promedio máxima por desajuste, que Google cree que es más capaz de eliminar el sesgo y mantener la precisión del modelo.

Google dice que MinDiff es el primero en lo que será una «biblioteca de corrección de modelos» más grande de técnicas adecuadas para diferentes casos de uso. «Las brechas en las tasas de error del clasificador son un conjunto importante de sesgos injustos que se deben abordar, pero no el único que aparece en las aplicaciones de aprendizaje automático», dijo Flavien Prost, ingeniero de software senior de Google, en una publicación de blog. y el investigador científico Alex Beutel. «Para los investigadores y profesionales del aprendizaje automático, esperamos que este trabajo avance más en la investigación sobre clases aún más amplias de sesgos injustos y el desarrollo de enfoques que puedan usarse en aplicaciones prácticas».

Google, anteriormente, ML-fairness-gym de código abierto, un conjunto de componentes para evaluar la equidad algorítmica en entornos sociales simulados. Otras herramientas de corrección de modelo y corrección de brillo en el paquete de la empresa incluyen la herramienta What-If, una función de detección de sesgos del panel web TensorBoard para su marco de aprendizaje automático TensorFlow, y un marco de responsabilidad destinado a agregar una capa de aseguramiento de la calidad a las empresas que implementan modelos de IA.


Mejores prácticas para un centro de excelencia de IA exitoso:

Una guía para CoE y unidades de negocio Inicie sesión aquí


Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *