mayo 6, 2021

Facebook acaba de lanzar una base de datos de 100,000 deepfakes para enseñarle a AI cómo detectarlos

Las empresas de redes sociales temen que las falsificaciones profundas pronto inunden sus sitios. Pero detectarlos automáticamente es difícil. Para resolver el problema, Facebook quiere usar IA para combatir las falsificaciones generadas por la IA. Para entrenar a la IA a detectar videos manipulados, está lanzando el mayor conjunto de datos de deepfake⁠: más de 100,000 clips producidos usando 3,426 actores y una gama de técnicas de intercambio de caras existentes.

«Deepfakes actualmente no es un gran problema», dice el CTO de Facebook Mike Schroepfer. “Pero la lección que aprendí mucho en los últimos dos años no debe tomarse por sorpresa. Quiero estar realmente preparado para muchas cosas malas que nunca suceden en lugar de lo contrario. «

Facebook también anunció al ganador del Deepfake Detection Challenge, en el que 2,114 participantes enviaron alrededor de 35,000 modelos capacitados en su conjunto de datos. El mejor modelo, desarrollado por Selim Seferbekov, un ingeniero de aprendizaje automático de la empresa de mapeo Mapbox, pudo detectar si un video era falso con una precisión del 65% cuando se probó en un conjunto de 10,000 clips nunca antes visto primero, incluyendo una mezcla de nuevos videos generados por Facebook y los existentes tomados de Internet.

Para hacer las cosas más difíciles, el conjunto de entrenamiento y el conjunto de prueba incluyen videos de los cuales un sistema de detección podría confundirse, como personas que ofrecen tutoriales de maquillaje y videos que han sido editados pegando texto y formas en las caras de los altavoces. cambiando la resolución u orientación y ralentizándolos.

En lugar de aprender técnicas forenses, como buscar huellas digitales en los píxeles de un video dejado por el proceso de generación de falsificaciones profundas, las primeras cinco voces parecen haber aprendido a identificar cuándo algo parecía «apagado», como podría hacer un humano.

Para hacer esto, todos los ganadores utilizaron un nuevo tipo de red neuronal convolucional (CNN) desarrollada por investigadores de Google el año pasado, llamada EfficientNets. Las CNN se usan comúnmente para analizar imágenes y son buenas para detectar caras o reconocer objetos. Sin embargo, mejorar su precisión más allá de cierto punto puede requerir un ajuste ad hoc. EfficientNets ofrece una forma más estructurada de optimización, facilitando el desarrollo de modelos más precisos. Pero no está claro exactamente qué los hace superiores a otras redes neuronales en esta tarea, dice Seferbekov.

Facebook no planea usar ninguno de los modelos ganadores en su sitio. Primero, la precisión del 65% todavía no es lo suficientemente buena como para ser útil. Algunos modelos lograron más del 80% de precisión con los datos de entrenamiento, pero esto disminuyó al chocar con clips invisibles. La generalización de los nuevos videos, que pueden incluir diferentes caras intercambiadas usando diferentes técnicas, es la parte más difícil del desafío, dice Seferbekov.

¿Crees que una forma de mejorar la detección sería enfocarte en las transiciones entre los cuadros de video, monitoreándolos con el tiempo. «Incluso las falsificaciones profundas de la más alta calidad tienen un parpadeo entre cuadros», dice Seferbekov. Los humanos son buenos para detectar estas inconsistencias, especialmente en la película de la cara. Pero la captura automática de estos defectos reveladores requerirá datos de entrenamiento más amplios y variados y una potencia informática mucho mayor. Seferbekov intentó rastrear estas transiciones de trama, pero falló. «La CPU fue un verdadero cuello de botella», dice.

Facebook sugiere que la detección de falsificación profunda también se puede mejorar mediante el uso de técnicas que van más allá del análisis de una imagen o video en sí, como evaluar su contexto o procedencia.

Sam Gregory, quien dirige Witness, un proyecto que apoya a activistas de derechos humanos en el uso de tecnologías de video, agradece la inversión de plataformas de redes sociales en la detección de falsificaciones. Witness es miembro de Partnership on AI, que ha recomendado a Facebook en su conjunto de datos. Gregory está de acuerdo con Schroepfer en que vale la pena prepararse para lo peor. «No hemos tenido apocalipsis profundos, pero estas herramientas son una muy mala adición a la violencia de género y la desinformación», dice. Por ejemplo, el informe de DeepTrace Labs descubrió que el 96% de las falsificaciones profundas eran pornografía no consensuada, en la que las caras de otras personas están pegadas a las de los actores en los videos porno.

Cuando millones de personas pueden crear y compartir videos, confiar en lo que vemos es más importante que nunca. Las noticias falsas se difunden como un incendio en Facebook y la mera posibilidad de falsificaciones profundas genera dudas, lo que nos hace más propensos a cuestionar imágenes auténticas y falsas.

Además, la detección automática pronto puede ser nuestra única opción. «En el futuro veremos profundidades que no se pueden distinguir de los humanos», dice Seferbekov.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *