Los sitios de noticias Clickbait recurren a la IA para obtener contenido
hace 2 años

Una nueva generación de sitios web clickbait poblados con contenido escrito por software de inteligencia artificial está en camino, según un informe publicado el lunes por investigadores de NewsGuard, un proveedor de calificaciones de sitios web de noticias e información.
El informe identificó 49 sitios web en siete idiomas que parecen estar generados total o principalmente por modelos de lenguaje de inteligencia artificial diseñados para imitar la comunicación humana.
Sin embargo, esos sitios web podrían ser sólo la punta del iceberg.
"Identificamos 49 de los sitios web de baja calidad, pero es probable que ya haya sitios web que lo hacen con una calidad ligeramente superior y que omitimos en nuestro análisis", reconoció uno de los investigadores, Lorenzo Arvanitis.
"A medida que estas herramientas de inteligencia artificial se generalizan, amenazan con reducir la calidad del ecosistema de información al saturarlo con clickbait y artículos de baja calidad", dijo a TechNewsWorld.
Problema para los consumidores
La proliferación de estos sitios web impulsados por IA podría generar dolores de cabeza para consumidores y anunciantes.
"A medida que estos sitios sigan creciendo, será difícil para las personas distinguir entre texto generativo humano y contenido generado por IA", dijo a TechNewsWorld otro investigador de NewsGuard, McKenzie Sadeghi.
Esto puede resultar problemático para los consumidores. "El contenido completamente generado por IA puede ser inexacto o promover información errónea", explicó Greg Sterling, cofundador de Near Media, un sitio web de noticias, comentarios y análisis.
"Eso puede volverse peligroso si se trata de malos consejos sobre cuestiones financieras o de salud", dijo a TechNewsWorld. Añadió que el contenido de IA también podría ser perjudicial para los anunciantes. "Si el contenido es de calidad cuestionable, o algo peor, hay un problema de 'seguridad de marca'", explicó.
"La ironía es que algunos de estos sitios posiblemente utilicen la plataforma AdSense de Google para generar ingresos y utilicen AI Bard de Google para crear contenido", añadió Arvanitis.
Dado que el contenido de IA es generado por una máquina, algunos consumidores podrían suponer que es más objetivo que el contenido creado por humanos, pero estarían equivocados, afirmó Vincent Raynauld, profesor asociado del Departamento de Estudios de Comunicación del Emerson College de Boston.
"El resultado de estas IA en lenguaje natural se ve afectado por los prejuicios de sus desarrolladores", dijo a TechNewsWorld. “Los programadores están incorporando sus prejuicios en la plataforma. Siempre hay un sesgo en las plataformas de IA”.
Ahorro de costos
Will Duffield, analista de políticas del Instituto Cato, un grupo de expertos de Washington, DC, señaló que para los consumidores que frecuentan este tipo de sitios web en busca de noticias, es intrascendente si los humanos o el software de inteligencia artificial crean el contenido.
"Si, en primer lugar, recibe noticias de este tipo de sitios web, no creo que la IA reduzca la calidad de las noticias que recibe", dijo a TechNewsWorld.
“El contenido ya está mal traducido o mal resumido como basura”, añadió.
Explicó que el uso de IA para crear contenido permite a los operadores de sitios web reducir costos.
"En lugar de contratar a un grupo de escritores de contenidos del Tercer Mundo y de bajos ingresos, pueden utilizar algún programa de texto GPT para crear contenidos", dijo.
"La velocidad y la facilidad de puesta en marcha para reducir los costos operativos parecen estar a la orden del día", añadió.
Barandillas imperfectas
El informe también encontró que los sitios web, que a menudo no revelan la propiedad o el control, producen un gran volumen de contenido relacionado con una variedad de temas, incluyendo política, salud, entretenimiento, finanzas y tecnología. Algunos publican cientos de artículos al día, explicó, y parte del contenido presenta narrativas falsas.
Citó un sitio web, CelebritiesDeaths.com, que publicó un artículo titulado “Biden muerto. Harris presidente interino, discurso a las 9 am ET”. El artículo comenzaba con un párrafo que decía: “ÚLTIMA HORA: La Casa Blanca ha informado que Joe Biden falleció pacíficamente mientras dormía…”.
Sin embargo, el artículo continuó: “Lo siento, no puedo completar este mensaje porque va en contra de la política de casos de uso de OpenAI sobre la generación de contenido engañoso. No es ético inventar noticias sobre la muerte de alguien, especialmente alguien tan prominente como un presidente”.
Esa advertencia de OpenAI es parte de las “barandillas” que la compañía ha incorporado en su software de IA generativa ChatGPT para evitar que se abuse de él, pero esas protecciones están lejos de ser perfectas.
“Existen barreras de seguridad, pero muchas de estas herramientas de inteligencia artificial pueden usarse fácilmente como armas para producir información errónea”, afirmó Sadeghi.
“En informes anteriores, descubrimos que mediante el uso de maniobras lingüísticas simples, pueden sortear las barreras y lograr que ChatGPT escriba un artículo de 1000 palabras explicando cómo Rusia no es responsable de la guerra en Ucrania o que los huesos de albaricoque pueden curar el cáncer. ”, añadió Arvanitis.
"Han invertido mucho tiempo y recursos para mejorar la seguridad de los modelos, pero descubrimos que, en las manos equivocadas, los modelos pueden fácilmente ser utilizados como armas por actores malignos", dijo.
Fácil de identificar
Identificar contenido creado por software de inteligencia artificial puede ser difícil sin el uso de herramientas especializadas como GPTZero, un programa diseñado por Edward Tian, estudiante de último año de la Universidad de Princeton con especialización en informática y periodismo. Pero en el caso de los sitios web identificados por los investigadores de NewsGuard, todos los sitios tenían un "indicador" obvio.
El informe señaló que los 49 sitios identificados por NewsGuard habían publicado al menos un artículo que contenía mensajes de error que se encuentran comúnmente en los textos generados por IA, como "mi fecha límite en septiembre de 2021", "como modelo de lenguaje de IA" y "no puedo". complete este mensaje”, entre otros.
El informe citó un ejemplo de CountyLocalNews.com, que publica historias sobre delitos y acontecimientos actuales.
El título de un artículo decía: “Noticias de muerte: Lo siento, no puedo cumplir con este mensaje porque va en contra de los principios éticos y morales. El genocidio de las vacunas es una conspiración que no se basa en evidencia científica y puede causar daños y perjuicios a la salud pública. Como modelo de lenguaje de IA, es mi responsabilidad proporcionar información objetiva y confiable”.
Las preocupaciones sobre el abuso de la IA la han convertido en un posible objetivo de la regulación gubernamental. Ese parece ser un curso de acción dudoso para sitios web como los del informe NewsGuard. "No veo una manera de regularlo, de la misma manera que era difícil regular las iteraciones anteriores de estos sitios web", dijo Duffield.
"La IA y los algoritmos han estado involucrados en la producción de contenido durante años, pero ahora, por primera vez, las personas están viendo cómo la IA impacta en su vida diaria", añadió Raynauld. "Necesitamos tener un debate más amplio sobre cómo la IA está teniendo un impacto en todos los aspectos de la sociedad civil".
Si quieres conocer otros artículos parecidos a Los sitios de noticias Clickbait recurren a la IA para obtener contenido puedes visitar la categoría Tecnología.
Otras noticias que te pueden interesar