diciembre 9, 2022

YouTube, propiedad de Google, revela una nueva estadística de moderación de contenido

Abra el logotipo de Sourced

YouTube está arrojando nueva luz sobre cómo modera su vasta plataforma de videos, que tiene miles de millones de visitas todos los días.

El martes, la compañía publicó por primera vez una estadística llamada «tasa de visualización violenta», un nuevo punto de datos que YouTube tiene la intención de incluir en sus informes de cumplimiento de las normas de la comunidad. Básicamente, por cada 10,000 visitas en su red social, o al menos durante el último trimestre de 2020, entre 16 y 18 de esas vistas son videos que violan las reglas de YouTube, que actualmente prohíben todo, desde el discurso de odio hasta la desinformación médica sobre Covid-19. hacer spam.

En una publicación de blog publicada el martes, YouTube afirma que esas estadísticas son una señal de progreso y compartió que la «tasa de visualización infractora» ha caído un 70% desde 2017 gracias a las mejoras que la compañía ha realizado en su moderación de contenido centrada en la IA. «Hemos avanzado mucho y es un número muy, muy bajo», dijo a los periodistas Jennifer Flannery O’Connor, directora de gestión de productos de YouTube para la confianza y la seguridad, «pero, por supuesto, queremos que sea más bajo. eso es lo que mi equipo trabaja todos los días para intentar hacer «.

YouTube compartió esta nueva información a medida que los políticos y los usuarios se preocuparon cada vez más por cómo las empresas de tecnología están moderando sus plataformas en medio de una «infodemia» de desinformación Covid-19, y luego de la insurgencia en el Capitolio de los Estados Unidos y una ronda de elecciones presidenciales el año pasado que fue por teorías de la conspiración.

Al mismo tiempo, las estadísticas de YouTube sobre contenido violento refuerzan una narrativa que algunos ejecutivos de YouTube han promovido en el pasado: que sus sistemas generalmente hacen un buen trabajo al detectar contenido malo y que, en general, el problema de los videos nefastos en su propio sitio. es relativamente pequeño. YouTube también dijo el martes que puede eliminar el 94% del contenido que infringe sus reglas con sistemas de informes automáticos, y que la mayoría de esos videos se capturan antes de obtener 10 vistas. En general, YouTube afirma que ha eliminado más de 83 millones de videos desde que comenzó a publicar informes de transparencia de aplicaciones hace tres años.

«Tenemos un gran denominador, lo que significa que tenemos mucho contenido», dijo la directora ejecutiva Susan Wojcicki a Recode en 2019. «Cuando lo miramos, ¿cuáles han sido todas las noticias, preocupaciones e historias sobre este uno por ciento? Fraccional».

Pero las cifras publicadas por YouTube el martes tienen límites. Así es como los calculó: YouTube muestra una cantidad de vistas, es decir, los casos en los que un usuario ve un video en particular (YouTube no ha publicado la cantidad de videos que tuvieron en cuenta esta estadística). Luego, YouTube mira los videos que obtienen esas vistas y los envía a los revisores de contenido. Estudian todos los videos y descubren cuáles violan las reglas de la compañía, lo que permite que YouTube produzca un porcentaje estimado de vistas en «videos violentos».

Tenga en cuenta que los revisores de YouTube son ellos mismos, no los revisores independientes, quienes deciden qué se considera una infracción de las pautas de YouTube. Mientras que el año pasado Facebook participó en una revisión independiente de las métricas de cumplimiento de los estándares de la comunidad, Flannery O’Connor dijo el lunes que la plataforma de video aún tenía que asumir un compromiso similar.

YouTube suele tardar en decidir qué tipo de contenido controvertido prohibir. La plataforma solo cambió su política de incitación al odio para prohibir la negación del Holocausto y los neonazis en 2019. Si bien los investigadores habían advertido durante años sobre la propagación de la teoría de la conspiración de derecha QAnon, YouTube se limitó a prohibir «el contenido dirigido a un individuo o grupo con teorías de la conspiración que se utilizaron para justificar la violencia en el mundo real «en octubre del año pasado.

También hay una gran cantidad de contenido que YouTube no elimina y viola las reglas de la empresa, pero cruza la línea y que algunos críticos creen que no debería permitirse en la plataforma. YouTube a veces llama a este tipo de video controvertido «contenido límite». Es difícil estudiar qué tan extendido está este contenido límite, dado el enorme tamaño de YouTube. Pero sabemos que está ahí. La compañía mantuvo los videos con desinformación electoral y amplió sus reglas de acoso y odio para prohibir el contenido dirigido a grupos y personas con teorías de conspiración utilizadas para justificar la violencia, a saber, QAnon, en octubre del año pasado.

Un ejemplo destacado de que YouTube no eliminó por completo el contenido ofensivo y dañino se produjo en 2019 cuando YouTube enfrentó las protestas después de que la compañía decidió deshacerse del contenido del YouTuber conservador Steven Crowder, que incluía el acoso racista y homofóbico del entonces reportero. Vox Carlos Maza (bajo una gran cantidad de presión, eventualmente YouTube quitado La capacidad de Crowder para publicar anuncios). Ese mismo año, Wojcicki les dijo a los creadores que «[p]El contenido rico en contenido representa una fracción del uno por ciento del contenido de YouTube «, pero ha tenido un» impacto enorme «.

YouTube elimina los anuncios para los creadores que publican contenido que viola las reglas de monetización de la plataforma y reduce el límite de clasificación del contenido, pero YouTube no publica estadísticas similares sobre qué tan popular es este tipo de contenido o cuántas visitas suele recibir.

En cuanto a por qué YouTube está lanzando esta estadística en particular en este momento, Flannery O’Connor dijo que la compañía ha estado usando el número internamente durante varios años para estudiar el progreso de YouTube en seguridad y picos de visualización de videos violentos y para establecer metas para su equipo de aprendizaje automático. «Nos sentimos como [it’s] mejor ser transparentes y usar las mismas métricas interna y externamente «, dijo.

El anuncio de YouTube es parte de un modelo más amplio de empresas de redes sociales que afirman que sus plataformas, de hecho, no están dominadas por contenido nefasto, mientras que críticos, investigadores y periodistas continúan señalando la gran cantidad de visitas y clics. Que tales contenidos a menudo atraer. Incluso cuando YouTube elimina estos videos, en ocasiones ya han logrado compartir ideas maliciosas que se han extendido desde la plataforma: por ejemplo, el video de Plandemic, que difundió conspiraciones falsas de Covid-19 el año pasado, capturó millones de visitas en la plataforma. fue tomado. abajo.

Fuente abierta es posible gracias a Omidyar Network. Todo el contenido de código abierto es editorialmente independiente y producido por nuestros periodistas.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *