El último modelo de ChatGPT ha comenzado a citar la Grokipedia de Elon Musk como fuente para una amplia gama de consultas, incluso sobre conglomerados iraníes y negadores del Holocausto, lo que genera preocupaciones sobre la desinformación en la plataforma.

En las pruebas realizadas por The Guardian, GPT-5.2 citó Grokipedia nueve veces en respuesta a más de una docena de preguntas diferentes. Estas incluían preguntas sobre las estructuras políticas en Irán, como los salarios de la fuerza paramilitar Basij y la propiedad de la Fundación Mostazafan, y preguntas sobre la biografía de Sir Richard Evans, un historiador británico y testigo experto contra el negador del Holocausto David Irving en su juicio por difamación.

Grokipedia, lanzado en Octubrees una enciclopedia en línea generada por IA que pretende competir con Wikipedia y ha sido criticada por propagar narrativas de derecha sobre temas como matrimonio homosexual y la insurrección del 6 de enero en Estados Unidos. A diferencia de Wikipedia, no permite la edición humana directa; en cambio, un modelo de IA escribe el contenido y responde a las solicitudes de cambio.

ChatGPT no citó a Grokipedia cuando se le pidió directamente que repitiera información errónea sobre la insurrección, el sesgo de los medios contra Donald Trump o la epidemia de VIH/SIDA, áreas donde se ha informado ampliamente que Grokipedia promueve falsedades. En cambio, la información de Grokipedia se filtró en las respuestas del modelo cuando se le preguntó sobre temas más oscuros.

Por ejemplo, ChatGPT, citando a Grokipedia, repitió afirmaciones más fuertes sobre los vínculos del gobierno iraní con MTN-Irancell que las encontradas en Wikipedia, como afirmar que la empresa tiene vínculos con la oficina del líder supremo de Irán.

ChatGPT también citó a Grokipedia al repetir información que The Guardian desacreditó, concretamente detalles sobre Sir Richard Evans. trabajar como testigo experto en el juicio de David Irving.

GPT-5.2 no es el único modelo de lenguaje grande (LLM) que parece citar Grokipedia; Curiosamente, Claude de Anthropic también hizo referencia a la enciclopedia de Musk sobre temas petroleros. producción para escoceses cervezas.

Uno AbiertoAI El portavoz dijo que la investigación web del modelo “tiene como objetivo aprovechar una amplia gama de fuentes y puntos de vista disponibles públicamente”.

“Aplicamos filtros de seguridad para reducir el riesgo de que surjan enlaces asociados con daños de alta gravedad, y ChatGPT muestra claramente qué fuentes informaron una respuesta a través de citas”, dijeron, y agregaron que tenían programas implementados para filtrar información de baja credibilidad e influir en campañas.

Anthropic no respondió a una solicitud de comentarios.

Pero el hecho de que la información de Grokipedia se filtre, a veces de manera muy sutil, en las respuestas del LLM es una preocupación para los investigadores de desinformación. La primavera pasada, los expertos en seguridad creado preocupaciones de que actores malignos, incluidas las redes de propaganda rusas, estuvieran produciendo volúmenes masivos de desinformación en un esfuerzo por sembrar modelos de IA con mentiras, una proceso llamado “preparación LLM”.

En junio, en el Congreso de Estados Unidos surgieron preocupaciones de que Gemini de Google repitiera la postura del gobierno chino sobre los abusos de los derechos humanos en Xinjiang y las políticas de China contra el Covid-19.

Nina Jankowicz, una investigadora de desinformación que trabajó en la preparación del LLM, dijo que la cita de Grokipedia por parte de ChatGPT generó preocupaciones similares. Si bien es posible que Musk no haya tenido la intención de influir en los LLM, las entradas de Grokipedia que ella y sus colegas revisaron “se basaban en fuentes que, en el mejor de los casos, no son confiables y, en el peor, están mal obtenidas y son desinformación deliberada”, dijo.

Y el hecho de que los LLM citen fuentes como Grokipedia o la red Pravda puede, a su vez, mejorar la credibilidad de estas fuentes ante los ojos de los lectores. “Pueden decir, ‘oh, ChatGPT lo está citando, estos modelos lo están citando, debe ser una fuente decente, seguramente la miraron’, y pueden ir allí y buscar noticias sobre Ucrania”, dijo Jankowicz.

La mala información, una vez filtrada en un chatbot de IA, puede ser difícil de eliminar. Jankowicz descubrió recientemente que un importante medio de comunicación incluía un cita inventada ella en una historia sobre desinformación. Ella escribió al medio de comunicación pidiendo que se eliminara la cita y al corriente sobre el incidente en las redes sociales.

La agencia de noticias eliminó la cita. Sin embargo, los modelos de IA durante algún tiempo continuaron citándolo como suyo. “La mayoría de la gente no hace el trabajo necesario para descubrir dónde está realmente la verdad”, afirmó.

Cuando se le pidió un comentario, un portavoz de xAI, propietario de Grokipedia, dijo: “Los medios tradicionales mienten”.

Fuente