diciembre 10, 2023

Cómo la Corte Suprema puede revisar la forma en que vive en línea

Ahora están en el centro de un caso legal histórico que, en última instancia, tiene el poder de cambiar por completo la forma en que vivimos en línea. El Tribunal Supremo conocerá los alegatos el 21 de febrero González contra Google, que se ocupa de las acusaciones de que Google violó la ley antiterrorista cuando las recomendaciones de YouTube promocionaron contenido de Daesh. Es la primera vez que el tribunal considerará una disposición legal llamada Sección 230.

La Sección 230 es la base legal sobre la cual, durante décadas, todas las grandes empresas de Internet con cualquier material generado por los usuarios (Google, Facebook, Wikimedia, AOL, incluso Craigslist) construyeron sus políticas y, a menudo, sus empresas. Como escribí la semana pasada, él ha “protegido durante mucho tiempo las plataformas sociales de las demandas por contenido dañino generado por los usuarios, dándoles libertad para eliminar las publicaciones a su discreción”. (Un recordatorio: los presidentes Trump y Biden han dicho que apoyan la eliminación de la Sección 230, que, según dicen, otorga demasiado poder a las plataformas con poca supervisión; las empresas de tecnología y muchos defensores de la libertad de expresión quieren mantenerla).

SCOTUS se centró en una pregunta muy específica: ¿Están recomendaciones de contenido igual que Pantalla de contenido, el último de los cuales es ampliamente aceptado como cubierto por la Sección 230?

Lo que está en juego realmente no podría ser más alto. Como escribí: “[I]Si la Sección 230 se deroga o se reinterpreta ampliamente, estas empresas pueden verse obligadas a transformar su enfoque de moderación de contenido y revisar las arquitecturas de su plataforma en el proceso.

Sin entrar en toda la jerga legal aquí, lo que es importante entender es que, si bien puede parecer plausible establecer una distinción entre los algoritmos de recomendación (especialmente aquellos que ayudan a los terroristas) y la visualización y el alojamiento de contenido, técnicamente hablando, es realmente oscuro. Los algoritmos que clasifican por historia, geografía u otros criterios de alguna manera gestionan la visualización de la mayoría de las empresas de contenido y tecnología, y algunos expertos dicen que no es fácil trazar una línea entre eso y el algoritmo. amplificaciónque deliberadamente mejora cierto contenido y puede tener consecuencias dañinas (e incluso algunas beneficiosas).

Si bien mi historia de la semana pasada se centró en los riesgos que plantea el fallo para los sistemas de moderación de la comunidad en línea, incluidas funciones como el voto a favor de Reddit, los expertos con los que hablé tenían varias preocupaciones. Muchos de ellos compartieron la misma preocupación de que SCOTUS no pronunció claramente una sentencia con matices técnicos y sociales.

“Esta Corte Suprema no me da mucha confianza”, me dijo Eric Goldman, profesor y decano de la Facultad de Derecho de la Universidad de Santa Clara. A Goldman le preocupa que el fallo pueda tener amplias consecuencias no deseadas y le preocupa el riesgo de “una opinión que es un asesino de Internet”.

Por otro lado, algunos expertos me han dicho que el daño infligido a las personas y a la sociedad por los algoritmos ha alcanzado un nivel inaceptable, y aunque podría ser más ideal regular los algoritmos a través de la legislación, SCOTUS realmente debería aprovechar esta oportunidad para cambiar la ley. En Internet.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *