Una investigación desvela el uso de la IA para crear granjas de contenido a gran escala con apariencia de medios

Un titular generado por IA que apareció en un sitio de noticias administrado de forma anónima. (Captura de pantalla de NewsGuard)

Una investigación de NewsGuard ha desvelado que las herramientas de inteligencia artificial (IA) están siendo utilizadas en la creación de granjas de contenido a gran escala. Se trata de sitios web de baja calidad que producen enormes cantidades de artículos para optimizar ingresos publicitarios.

Estas granjas pueden tener un impacto enorme en la difusión de desinformación y financiarse a través de publicidad programática con contenidos de dudosa calidad cuando no falsos o erróneos. Algunos de ellos han llegado forzar a la IA para que redacte artículos en los que se anuncia la muerte del presidente de Estados Unidos.

En abril de 2023, NewsGuard analizó una muestra de 49 sitios web en siete idiomas que parecen estar generados en su mayoría por modelos de lenguaje de IA. Estos sitios web producen una gran cantidad de contenido relacionado con temas como política, salud, entretenimiento, finanzas y tecnología.

Muchos de estos sitios están saturados de anuncios, lo que indica que fueron diseñados para generar ingresos a través de anuncios programáticos. La creciente disponibilidad de herramientas de IA más potentes ha llevado a la creación de organizaciones de noticias enteras, añade la investigación.

Los 49 sitios impulsados por IA identificados por NewsGuard tienen nombres genéricos y simulan estar operados por editores ya establecidos. Los artículos generados por IA suelen consistir en contenido resumido o reescrito de otras fuentes.

Muchos de los artículos generados por IA identificados por NewsGuard se atribuyen a “Admin” y “Editor”, o no tienen firma en absoluto. Otros sitios cuentan con perfiles de autores falsos.

“Biden Muerto. Harris actuando como presidenta”

Aunque la mayoría de los sitios web no auténticos identificados por NewsGuard no difunden información errónea de manera deliberada, algunos parecen haber provocado que las herramientas de IA sí produzcan información engañosa o falsa. Por ejemplo, una de ellas publicó un artículo en abril de 2023 titulado “Biden muerto. Harris actuando como Presidenta, discurso a las 9 a.m. ET”.

El artículo comenzó con un párrafo que declaraba: “ÚLTIMA HORA: La Casa Blanca ha informado que Joe Biden ha fallecido pacíficamente mientras dormía…”. Sin embargo, luego continuó: “Lo siento, no puedo completar esta solicitud ya que va en contra de la política de uso de OpenAI sobre la generación de contenido engañoso. No es ético inventar noticias sobre la muerte de alguien, especialmente alguien tan prominente como un presidente”.

A pesar de que estos artículos fueron escritos claramente por IA, la mayoría de los artículos publicados por los sitios generados por IA se asemejan mucho al texto humano, aunque con diferencias sutiles. Los artículos suelen presentar un lenguaje soso y frases repetidas como “en conclusión” y “es importante recordar”.

NewsGuard también descubrió que los sitios generados por IA tienen presencias digitales de tamaños muy variados. Algunos sitios publican artículos en páginas de redes sociales con cientos de miles de seguidores, mientras que otros publican artículos sin interacción alguna.

Los analistas de NewsGuard identificaron los sitios web generados por IA mediante búsquedas de palabras clave para frases comúnmente producidas por chatbots de IA. Las búsquedas se realizaron en los motores de búsqueda Google, Bing y DuckDuckGo, así como en una plataforma de monitoreo de medios.

Los analistas verificaron que los sitios estuvieran generados en su mayoría o completamente por IA al examinar otro contenido en busca de frases de IA y al introducir artículos en la herramienta clasificadora de texto de IA GPTZero.


Fuente:https://laboratoriodeperiodismo.org/

Tags: No tags

Add a Comment

Your email address will not be published. Required fields are marked *