Meta restos de verificación de hechos, restricciones de contenido de Loosens
hace 3 meses

Los verificadores de hechos se dirigen al basurero de la historia en Meta.
"Terminaremos el programa actual de verificación de hechos de terceros en los Estados Unidos y, en cambio, comenzaremos a mudarse a un programa de Notas Comunitarias", anunció el martes el director de asuntos mundiales de Meta, Joel Kaplan, en un blog de compañía.
Kaplan agregó que Meta también abordaría el "Creep de la misión" que ha hecho que las reglas que rigen las plataformas de la compañía son demasiado restrictivas y propensas a la excesiva aplicación.
"Nos estamos deshaciendo de una serie de restricciones sobre temas como la inmigración, la identidad de género y el género que son objeto de un discurso político frecuente y debate", escribió. "No es correcto que las cosas se puedan decir en la televisión o en el piso del Congreso, pero no en nuestras plataformas".
Además, Meta modificará los sistemas automatizados que escanean sus plataformas para violaciones de políticas. "[T]El suyo ha resultado en demasiados errores y demasiado contenido censurado que no debería haber sido ", escribió Kaplan.
En el futuro, los sistemas se centrarán en violaciones ilegales y de alta severidad, como el terrorismo, la explotación sexual infantil, las drogas, el fraude y las estafas, mientras que las violaciones de políticas menos graves dependerán de que alguien informe un problema antes de que se tomen medidas.
Meta también está dificultando eliminar el contenido de las plataformas al exigir que múltiples revisores alcancen una determinación para derribar algo y permitir a los usuarios ver más contenido cívico, publicaciones sobre elecciones, política o problemas sociales, si lo desean.
Herramienta de censura
Kaplan explicó que cuando Meta lanzó su programa de verificación de hechos independiente en 2016, no quería ser el árbitro de la verdad, por lo que entregó la responsabilidad de verificar el contenido a organizaciones independientes.
"La intención del programa era hacer que estos expertos independientes brindaban a las personas más información sobre las cosas que ven en línea, particularmente engaños virales, por lo que pudieron juzgar por sí mismos lo que vieron y leían", escribió.
"Esa no es la forma en que se desarrollaron las cosas, especialmente en los Estados Unidos", continuó. “Los expertos, como todos los demás, tienen sus propios prejuicios y perspectivas. Esto apareció en las opciones que algunas hicieron sobre qué verificar los hechos y cómo ".
"Con el tiempo, terminamos con demasiado contenido de verificación de hechos para que la gente entendiera que es un discurso político legítimo y debate", señaló. “Nuestro sistema luego adjuntó consecuencias reales en forma de etiquetas intrusivas y distribución reducida. Un programa destinado a informar con demasiada frecuencia se convirtió en una herramienta para censurar ".
David Inserra, miembro de la libre expresión y tecnología en el Instituto Cato, un grupo de expertos de Washington, DC, sirvió en un equipo de política de contenido de Facebook y dijo que le molestó el sesgo de selección del grupo. "Las únicas personas que se unieron para ser verificadas de hechos querían moderar el contenido", dijo a Technewsworld. "Las personas que querían que los usuarios tomaran sus propias decisiones sobre el contenido no se convirtieron en verificadores de hechos".
"Mi experiencia con la efectividad de la verificación de hechos de Facebook fue bastante mixta en general", agregó Darian Shimy, CEO y fundador de FutureFund, una plataforma de recaudación de fondos para escuelas K-12 y PTA, en Pleasanton, California.
"Es seguro decir que agregó una capa de responsabilidad, pero sinceramente, descubrí que era demasiado lento e inconsistente para mantenerse al día con el ritmo de desinformación viral", dijo a Technewsworld. "Hablando con muchas personas en mi círculo e investigando internamente, descubrí que la mayoría de las personas sentían que depender de los verificadores de hechos de terceros creó una percepción de sesgo, que no siempre ayudó a generar confianza con los usuarios".
'No es una victoria para la libertad de expresión'
Irina Raicu, directora de ética de Internet en el Centro Markkula de Ética Aplicada de la Universidad de Santa Clara, señaló que había mucha desinformación en Facebook bajo el régimen de verificación de hechos existente.
"Parte del problema fue la automatización de la moderación de contenido", dijo a Technewsworld. “Las herramientas algorítmicas fueron bastante contundentes y se perdieron los matices tanto del lenguaje como de las imágenes. Y el problema estaba aún más extendido en las publicaciones en idiomas distintos del inglés ".
"Con miles de millones de piezas de contenido publicadas a diario, era simplemente imposible para los verificadores de hechos humanos mantenerse al día", agregó Paul Benigeri, cofundador y CEO de Archive, una compañía que desarrolla software para automatizar flujos de trabajo de marketing digital de comercio electrónico, en la ciudad de Nueva York.
"La verificación de hechos se sintió más como un movimiento de relaciones públicas", dijo a Technewsworld. "A veces funcionaba, pero nunca estuvo cerca de atrapar el volumen completo de publicaciones engañosas".
Meta desguace su sistema de verificación de hechos fue cuestionado por Tal-Or Cohen Montemayor, fundador y director ejecutivo de Cyberwell, una organización sin fines de lucro dedicada a la lucha contra el antisemitismo en las redes sociales, con sede en San Francisco.
"Si bien el sistema de verificación de hechos anterior ha demostrado ser un método ineficaz e insegura para combatir la información errónea y la desinformación durante los conflictos y emergencias en tiempo real", dijo a Technewsworld, "la respuesta no puede ser menos responsabilidad y menos inversión del lado del lado del lado plataformas ".
"Esta no es una victoria para la libertad de expresión", declaró. “Es un intercambio de sesgo humano en un grupo pequeño y contenido de verificadores de hechos para el sesgo humano a escala a través de notas comunitarias. La única forma de prevenir la censura y la manipulación de datos por parte de cualquier gobierno o corporación sería instituir requisitos legales y reformas sobre grandes tecnologías que impongan los requisitos de reforma y transparencia de las redes sociales ".
Solución comunitaria defectuosa
El reemplazo de las notas comunitarias de Meta para la verificación de hechos se modela en un esquema similar implementado en X, anteriormente Twitter. "El enfoque basado en la comunidad es bueno porque se ocupa parcialmente con el problema de la escala", dijo Cody Buntain, profesor asistente de la Facultad de Información de la Universidad de Maryland. "Permite a muchas más personas interactuar con este proceso y agregar contexto".
"El problema es que la comunidad señala, si bien puede funcionar en la gran escala agregada para piezas ocasionales de información o la historia ocasional que se vuelve viral, generalmente no es lo suficientemente rápido y se siente completamente abrumada con nuevos eventos importantes", explicó.
"Vimos esto después de los ataques en Israel en octubre de 2023", continuó. "Hubo personas muy involucradas en el proceso de nota comunitaria, pero Twitter como plataforma acaba de inundar y abrumarse con la cantidad de información errónea en torno a este evento".
"Cuando las plataformas dicen: 'Vamos a lavar nuestras manos de esto y dejar que la comunidad se ocupe de ella', eso se vuelve problemático en estos momentos donde las únicas personas que realmente pueden lidiar con afluencias masivas de alta velocidad, baja La información de calidad son las plataformas ”, dijo. "Las notas de la comunidad no están realmente configuradas para tratar esos problemas, y esos son los momentos en que más quieres información de alta calidad".
"Nunca he sido fanático de las notas comunitarias", agregó Karen Kovacs North, profesora clínica de comunicación en la Escuela Annenberg para la Comunicación y el Periodismo de la Universidad del Sur de California.
"El tipo de personas que están dispuestas a poner notas en algo generalmente están polarizadas y apasionadas", dijo a Technewsworld. "Los intermediarios no se toman el tiempo para reducir sus comentarios en una historia o una pieza de contenido".
Currying el favor de Trump
Vincent Raynauld, profesor asistente en el Departamento de Estudios de Comunicación en Emerson College, señaló que si bien la moderación de la comunidad suena muy bien en teoría, tiene algunos problemas. "Aunque el contenido podría marcarse como desinformación o engañoso, el contenido aún está disponible para que las personas consuman", dijo a Technewsworld.
"Entonces, aunque algunas personas pueden ver la nota de la comunidad, aún podrían consumir ese contenido, y ese contenido aún podría tener un impacto en sus actitudes, conocimiento y comportamiento", explicó.
Junto con el anuncio de Kaplan, Meta lanzó un video del CEO Mark Zuckerberg, acogiendo los últimos movimientos de la compañía. "Vamos a volver a nuestras raíces y centrarnos en reducir los errores, simplificar nuestras políticas y restaurar la libre expresión en nuestras plataformas", dijo.
"El anuncio de Zuckerberg no tiene nada que ver con mejorar las plataformas de Meta y todo que ver con el favor de Donald Trump", afirmó Dan Kennedy, profesor de periodismo en la Northeastern University, en Boston.
"Hubo un momento en que Zuckerberg se preocupaba por que sus productos se utilizaran para promover la desinformación y desinformación peligrosas, sobre la Insurrección y Covid del 6 de enero", dijo Technewsworld. "Ahora Trump regresa a un cargo, y uno de los rivales de Zuckerberg, Elon Musk, se está volviendo loco con la indulgencia de Trump, por lo que Zuckerberg está recibiendo el programa".
"Ningún sistema de verificación de hechos y moderación es perfecto", agregó, "pero si a Zuckerberg realmente le importara, trabajaría para mejorarlo en lugar de deshacerse de él por completo".
Almizcle como setter de tendencias
Damian Rollison, director de marketing de Soci, una plataforma de la nube de comarketing con sede en San Diego, señaló una ironía en el último movimiento de Meta. "Creo que es seguro decir que nadie predijo que la caótica adquisición de Twitter de Elon Musk se convertiría en una tendencia que seguirían otras plataformas tecnológicas y, sin embargo, aquí estamos", dijo a Technewsworld.
"Podemos ver ahora, en retrospectiva, que Musk estableció un estándar para un enfoque recientemente conservador para aflojar la moderación de contenido en línea, uno que Meta ahora ha adoptado antes de la administración entrante de Trump", dijo.
"Lo que esto probablemente significará es que Facebook e Instagram verán un aumento en el discurso político y las publicaciones sobre temas controvertidos", continuó.
"Al igual que con la X de Musk, donde los ingresos publicitarios han caído a la mitad, este cambio puede hacer que la plataforma sea menos atractiva para los anunciantes", agregó. "También puede consolidar una tendencia por la cual Facebook se está convirtiendo en la red social para usuarios mayores y más conservadores y cediendo la Generación Z a Tiktok, con Instagram ocupando un punto medio entre ellos".
Si quieres conocer otros artículos parecidos a Meta restos de verificación de hechos, restricciones de contenido de Loosens puedes visitar la categoría Tecnología.
Otras noticias que te pueden interesar