La IA de Facebook todavía está desconcertada en gran medida por la desinformación casual

Las noticias: En su último informe sobre la aplicación de las reglas de la comunidad, publicado hoy, Facebook detalló las actualizaciones que ha realizado en sus sistemas de inteligencia artificial para detectar discursos de odio y desinformación. El gigante tecnológico afirma que el 88.8% de todo el discurso de odio que eliminó en este trimestre fue detectado por inteligencia artificial, en comparación con el 80.2% en el trimestre anterior. La inteligencia artificial puede eliminar automáticamente el contenido si el sistema está seguro de que se trata de un discurso de odio, pero la mayoría sigue siendo controlada por un ser humano primero.

Entre bastidores: La mejora se debe en gran medida a dos actualizaciones de los sistemas de inteligencia artificial de Facebook. Primero, la compañía ahora está utilizando enormes modelos de lenguaje natural que pueden descifrar mejor los matices y el significado de una publicación. Estos modelos se basan en el progreso de la investigación de IA en los últimos dos años que permiten que las redes neuronales sean entrenadas en lenguaje sin supervisión humana, eliminando el cuello de botella causado por el cuidado manual de datos.

La segunda actualización es que los sistemas de Facebook ahora pueden analizar contenido compuesto por imágenes y texto combinados, como memes de odio. La inteligencia artificial sigue siendo limitada en su capacidad para interpretar dicho contenido de medios mixtos, pero Facebook también ha lanzado un nuevo conjunto de datos de memes odiosos y ha lanzado una competencia para ayudar a los mejores algoritmos de crowdsourcing a detectarlos.

Covid miente: Sin embargo, a pesar de estas actualizaciones, la inteligencia artificial no ha jugado un papel tan importante en el manejo de la ola de desinformación del coronavirus, como las teorías de conspiración sobre el origen del virus y las falsas noticias de curas. Facebook se basó principalmente en revisores humanos de más de 60 organizaciones asociadas de verificación de hechos. Solo una vez que una persona ha marcado algo, como una imagen con un título engañoso, los sistemas de inteligencia artificial toman el lugar de buscar elementos idénticos o similares y agregan automáticamente etiquetas de advertencia o las eliminan. El equipo aún no ha podido formar un modelo de aprendizaje automático para encontrar nuevos casos de información errónea. «Crear un nuevo clasificador para algo que incluya contenido que nunca antes haya visto requiere tiempo y muchos datos», dijo Mike Schroepfer, director de tecnología de Facebook, en una conferencia de prensa.

Porque importa: El desafío revela los límites de la moderación de contenido basada en inteligencia artificial. Tales sistemas pueden detectar contenido similar a lo que han visto antes, pero encontrado cuando aparecen nuevos tipos de desinformación. En los últimos años, Facebook ha invertido mucho en el desarrollo de sistemas de inteligencia artificial que pueden adaptarse más rápidamente, pero el problema no es solo el de la empresa: sigue siendo uno de los mayores desafíos de investigación en el sector.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *