octubre 13, 2024

Atrapado por algoritmos de dolor y problemas de privacidad de imágenes AI

—Tate Ryan-Mosley, reportero sénior de políticas tecnológicas

Siempre he sido un súper Googler, lidiando con la incertidumbre tratando de aprender tanto como sea posible sobre lo que podría venir. Esto incluía el cáncer de garganta de mi padre.

Empecé a buscar en Google etapas de duelo, libros e investigaciones académicas sobre pérdidas, desde la aplicación en mi iPhone, consumiendo intencionalmente y sin querer las experiencias de duelo y tragedia de las personas a través de videos de Instagram, varias fuentes de noticias y testimonios de Twitter.

Sin embargo, con cada búsqueda y clic, he creado sin darme cuenta una telaraña pegajosa de dolor digital. Eventualmente, resultaría casi imposible liberarme de lo que los algoritmos me estaban sirviendo. Finalmente salí. Pero, ¿por qué es tan difícil darse de baja y optar por no recibir contenido que no queremos, incluso cuando es dañino para nosotros? Lea la historia completa.

Los modelos de IA escupen fotos de personas reales e imágenes con derechos de autor

Las noticias: Es posible que se requieran modelos de generación de imágenes para producir fotos identificables de personas reales, imágenes médicas y obras de artistas con derechos de autor, según una nueva investigación.

Cómo lo hicieron: Los investigadores han sugerido Stable Diffusion e Imagen de Google muchas veces con subtítulos para las imágenes, como el nombre de una persona. Luego analizaron si alguna de las imágenes generadas coincidía con las imágenes originales en la base de datos del modelo. El equipo logró extraer más de 100 réplicas de imágenes en el conjunto de entrenamiento de IA.

Porque importa: El descubrimiento podría reforzar el caso de los artistas que actualmente están demandando a las empresas de IA por infracciones de derechos de autor y podría amenazar potencialmente la privacidad de los sujetos humanos. También podría tener implicaciones para las nuevas empresas que buscan utilizar modelos generativos de IA en el cuidado de la salud, ya que demuestra que estos sistemas corren el riesgo de filtrar información privada confidencial. Lea la historia completa.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *