Técnica

Charlie Kirk Assassinent Sparks False ai ‘verificación de hechos’ y caos en línea

Con una manguera de incendio de información errónea en torno al asesinato del activista de la derecha Charlie Kirk, los usuarios de las redes sociales han recurrido Chatbots de IA para actualizaciones confiables, solo para encontrar respuestas contradictorias o inexactas, Atrolando aún más confusión en línea.

La tendencia destaca cómo los chatbots a menudo generan respuestas seguras, incluso cuando la información verificada no está disponible durante los eventos de noticias de desarrollo rápido, energizando la información errónea en las plataformas que han reducido en gran medida la verificación de hechos humanos y la moderación de contenido.

Un día después de que Kirk, un aliado destacado de 31 años del presidente estadounidense Donald Trump, fuera asesinado a tiros en una universidad en Utah, el relato X de la perplejidad de chatbot de IA declaró falsamente que el activista nunca fue disparado y que todavía estaba vivo “, según el Watchdog Newsguard.

Cuando las publicaciones que contienen un video auténtico de Kirk se filmaron en línea, el relato X de Grok, el chatbot Ai de Elon Musk, declaró que era un clip satírico.

“El video es una edición de memes: Charlie Kirk está debatiendo, y los efectos hacen que parezca que está ‘filmado’ a mitad de la oración por efecto cómico. Sin daños reales; está bien y activo como siempre”, escribió Grok.

Grok también afirmó falsamente que un demócrata registrado con sede en Utah llamado Michael Mallinson había sido identificado como el tirador, atribuyendo erróneamente la información a los principales medios de comunicación como CNN y The New York Times.

Mallinson, en realidad, un banquero canadiense retirado de 77 años que vivía en Toronto, dijo que estaba “conmocionado” por miles de publicaciones en las redes sociales que lo etiquetaron como el culpable.

Los eventos de noticias de última hora a menudo provocan una búsqueda frenética de una nueva información en las redes sociales, lo que con frecuencia conduce a conclusiones falsas que los chatbots luego regurgitan, contribuyendo a un mayor caos en línea.

La marea de desinformación se produce en medio de un entorno volátil en los Estados Unidos después del asesinato de Kirk, con muchos influenciadores de derecha de Trump’s Make America Great Again (MAGA) Base Political que pide violencia y “retribución” contra la izquierda.

Se desconocen los motivos del pistolero involucrado en el tiroteo, que permanece en general.

Mientras tanto, algunos teóricos de la conspiración han afirmado sin fundamento que el video que muestra que Kirk fue filmado fue generado por IA, afirmando que todo el incidente se realizó.

La afirmación subraya cómo el surgimiento de herramientas de IA baratas y ampliamente disponibles ha dado a los vendedores ambulantes de información errónea un práctico incentivo para poner en duda la autenticidad del contenido real, un táctico investigadores han denominado como el “dividendo del mentiroso”.

“Hemos analizado varios de los videos (del rodaje de Kirk) que circulan en línea y no encontramos evidencia de manipulación o manipulación”, dijo Hany Farid, cofundadora de GetReal Security y profesor en la Universidad de California, Berkeley.

Farid también informó haber visto algunos videos generados por IA.

“Este es un ejemplo de cómo el contenido falso puede enturbiar las aguas y, a su vez, arrojar dudas sobre el contenido legítimo”, dijo.

Las falsedades subrayan cómo los hechos están cada vez más asaltos en un panorama de Internet lleno de información errónea, un problema exacerbado por la desconfianza pública de las instituciones y los medios tradicionales.

Ha expuesto una necesidad urgente de herramientas de detección de IA más fuertes, dicen los expertos, ya que las principales plataformas tecnológicas han debilitado en gran medida las salvaguardas al reducir la inversión en la verificación de hechos humanos.

Los investigadores dicen que los chatbots han cometido errores verificando información relacionada con otras crisis, como la Guerra de Israel-Hamas en el Medio Oriente, el reciente conflicto de India-Pakistán y las protestas contra la inmigración en Los Ángeles.

Una auditoría reciente de Newsguard descubrió que 10 chatbots de IA principales repetían información falsa sobre temas controvertidos de noticias a casi el doble de la tasa en comparación con hace un año.

“Un factor clave detrás de la mayor tasa de fallas es la creciente propensión de los chatbots a responder a todas las consultas, en lugar de negarse a responder ciertas indicaciones”, dijo Newsguard en un informe la semana pasada.

“Los grandes modelos de idiomas (LLM) ahora extraen las búsquedas web en tiempo real, a veces sembrados deliberadamente por vastas redes de actores malignos”.

Publicado – 12 de septiembre de 2025 09:25 en IS

Fuente

Related Articles

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Back to top button