Facebook brinda a los usuarios fuera de EE. UU. menos protección contra contenido dañino para ahorrar dinero: Haugen

gettyimages-1235714051.jpg

Imagen: Tom Williams/CQ-Roll Call, Inc vía Getty Images

Para las personas que viven fuera de los Estados Unidos, Meta brindará deliberadamente menos ayuda, informes de abuso en línea y seguridad en su plataforma de Facebook para ahorrar costos, dijo la denunciante de Facebook, Frances Haugen, al Comité Selecto de Medios Sociales y Seguridad en Línea de Australia el jueves por la mañana.

Haugen testificó que Facebook elimina el «mínimo» cuando se trata de contenido dañino, especialmente cuando el contenido viene en idiomas que no se hablan de manera prominente en los países desarrollados, ya que hay críticas mínimas de estos usuarios subrepresentados.

«Puede invertir constantemente menos en seguridad y, en particular, realmente invertir menos en seguridad fuera de los Estados Unidos porque, de manera desproporcionada, su presupuesto de seguridad se gasta en pavimentar los Estados Unidos», dijo Haugen. «Estoy seguro de que per cápita hay menos ayuda, menos apoyo y menos seguridad para los australianos porque Facebook sabe que opera en la oscuridad. Donde no tienen que hacerlo, no se disculpan por nada».

Dando un ejemplo de Facebook haciendo lo mínimo, Haugen afirmó que una pantalla de intervención para contenido de trastornos alimentarios o autolesiones previamente promocionada por la jefa de seguridad global de Meta, Antigone Davis, solo se mostró cientos de veces al día a partir del año pasado.

El lunes, el Departamento del Interior compartió hallazgos similares con el comité, destacando a Meta como «frecuentemente el más reacio a trabajar con el gobierno» cuando se trata de promover un entorno en línea seguro, adoptar un enfoque de seguridad por diseño y tomando medidas proactivas adecuadas para prevenir daños en línea.

Haugen proporcionó este testimonio al comité como parte de su investigación en las redes sociales sobre las prácticas de las principales empresas de tecnología para frenar el comportamiento tóxico en línea. La investigación fue aprobada por el gobierno federal a fines del año pasado con la intención de desarrollar la legislación de redes sociales propuesta para «desenmascarar a los trolls».

Al igual que en las apariciones anteriores de Haugen ante gobiernos de otras jurisdicciones, continuó señalando los problemas centrales de la plataforma de Facebook como sus algoritmos que impulsan el contenido extremo y su decisión de permitir que una tasa más alta de contenido inapropiado permanezca en línea para evitar eliminar contenido apropiado por error. .

Haugen explicó que los algoritmos de Facebook impulsan el contenido extremo, ya que es lo que recibe la mayor participación y, por lo tanto, las ganancias. Para equilibrar el impulso del contenido extremo, la plataforma también tiene un sistema de monitoreo de contenido, que dice tiene como objetivo degradar el contenido que viola las políticas de Facebook.

Sin embargo, según Haugen, el apetito de Facebook por cometer errores al degradar contenido es bajo, ya que afectaría sus márgenes de ganancias, lo que significa que muchos contenidos dañinos a menudo no se degradan, o solo se degradan levemente, y continúan teniendo un lugar destacado en línea.

Cuando la directora de políticas de Meta ANZ, Mia Garlick, compareció ante el comité hace quince días, dijo que Facebook no hace que sus algoritmos reduzcan el umbral de lo que podría clasificarse como contenido inapropiado, como el discurso de odio, como quiere.brinde a los usuarios más control para determinar qué contenido aparece en su suministro de noticias.

En respuesta a una pregunta del comité que se refiere a los comentarios de Garlick, Haugen dijo que Meta ha sido «muy buena para reformular debates» que no son útiles para poner la responsabilidad de la seguridad en las víctimas.

Explicó que si Facebook no tuviera un sistema de amplificación para dar el máximo alcance al contenido extremo, no sería necesario tener una conversación sobre si las plataformas de redes sociales están haciendo lo suficiente para eliminar el contenido dañino.

«Como cualquiera que recuerde programar una videograbadora, es muy difícil averiguar la configuración de los sistemas que no toca muy a menudo, ¿verdad? Esperar que la persona promedio aprenda a configurar todos los diales en los sistemas de seguridad de Facebook, eso es Es una pregunta poco realista e irrazonable”, dijo.

Durante el testimonio, la presidenta del comité y parlamentaria liberal Lucy Wicks también le pidió a Haugen recomendaciones sobre qué cambios regulatorios sencillos podría aplicar el gobierno, a lo que ella dijo que un requisito para que los grupos grandes y las páginas tengan moderadores y limitar el reenvío sería de gran ayuda. manera de reducir significativamente la difusión de conspiraciones y contenidos que inciten a la desconfianza.

Durante el año pasado, surgió una tendencia entre los críticos de Meta de usar el uso de algoritmos de la compañía para pintarlo como negligente. Junto con las diversas investigaciones gubernamentales en todo el mundo realizadas sobre la conducta de Meta, los refugiados rohingya iniciaron recientemente dos demandas colectivas valoradas en más de 150 000 millones de dólares contra Meta por su papel en desencadenar el genocidio rohingya en Myanmar.

En esas demandas, los demandantes, como Haugen, acusaron a Meta de actuar de manera negligente al priorizar la participación y el crecimiento del usuario sobre la seguridad mediante el uso de algoritmos para impulsar contenido de odio extremo.

Cobertura relacionada

Deja un comentario