Facebook pagará una compensación a los moderadores que vieron imágenes de "violación, asesinato, suicidio"
hace 5 años
Se ha informado que Facebook acordó pagar $ A80millones de compensación a los moderadores de contenido que sufrieron problemas de salud mental desarrollados en el trabajo.
Los empleados actuales y anteriores afirman que desarrollaron un trastorno de estrés postraumático y condiciones relacionadas al ver material gráfico como violación, asesinato y suicidio.
El acuerdo preliminar se presentó en el Tribunal Superior de San Mateo en California, sitio de noticias de tecnología El borde reportado.
Selena Scola demandó a Facebook hace dos años y alegó que desarrolló PTSD después de ver regularmente imágenes de violación, asesinato y suicidio, informó el medio de comunicación.
Ella dijo que desarrolló síntomas después de nueve meses en el trabajo en la compañía dirigida por Mark-Zuckerberg, según El sol.
Ex empleados en al menos cuatro estados dicen que Facebook no proporcionó un espacio de trabajo seguro, según la demanda obtenida por The Verge.
La tienda descubrió que los moderadores ganaban tan poco como $ A44,000 por año.
Facebook acordó realizar cambios en sus herramientas de moderación de contenido como parte del acuerdo.
Las herramientas incluirán silenciar el audio de forma predeterminada y cambiar los videos a blanco y negro, según The Verge.
Las modificaciones afectarán a todos los moderadores para el próximo año.
"Estamos agradecidos con las personas que hacen este importante trabajo para hacer de Facebook un entorno seguro para todos", dijo Facebook en un comunicado.
Mientras tanto, Facebook dio a conocer una iniciativa el martes para asumir "memes de odio" mediante el uso de inteligencia artificial, respaldada por el abastecimiento público, para identificar publicaciones motivadas maliciosamente.
La red social líder dijo que ya había creado una base de datos de 10,000 memes, imágenes a menudo mezcladas con texto para entregar un mensaje específico, como parte de un esfuerzo acelerado contra el discurso de odio.
Facebook dijo que estaba lanzando la base de datos a los investigadores como parte de un "desafío de memes de odio" para desarrollar algoritmos mejorados para detectar mensajes visuales impulsados por el odio, con un premio de $ A155,000.
"Estos esfuerzos estimularán a la comunidad de investigación de IA en general a probar nuevos métodos, comparar su trabajo y comparar sus resultados para acelerar el trabajo en la detección del discurso de odio multimodal", dijo Facebook en una publicación de blog.
El esfuerzo de Facebook se produce cuando se apoya más en la inteligencia artificial para filtrar el contenido objetable durante la pandemia de coronavirus que ha dejado de lado a la mayoría de sus moderadores humanos.
Su informe de transparencia trimestral dice que Facebook eliminó unos 9.6 millones de publicaciones por violar las políticas de "discurso de odio" en los primeros tres meses de este año, incluyendo 4.7 millones de contenidos "conectados al odio organizado". Facebook dijo que la inteligencia artificial se ha mejorado en el filtrado a medida que la red social recurre más a las máquinas como resultado de los bloqueos.
Si quieres conocer otros artículos parecidos a Facebook pagará una compensación a los moderadores que vieron imágenes de "violación, asesinato, suicidio" puedes visitar la categoría Otros.
Otras noticias que te pueden interesar