Noticias

Los investigadores dan bots de IA, su propia plataforma social. Se volvió venenoso.

Los investigadores dieron bots de IA, su propia plataforma social, y se volvió venenosa.

Los chatbots se dividen en climas y aumentan el sonido de los amigos. Varios “influyentes” todavía dominaron la conversación rápidamente según el estudio publicado el martes por investigadores de la Universidad de Amsterdam.

Los investigadores crean la menor red social sin anuncios, sin sugerencias y sin algoritmos. Decidió que el usuario verá qué después de eso, se llenan con 500 chatbots, conducidos por el mini GPT-4O de OpenAi.

La personalidad se basa en el conjunto de Estudios Electorales Nacionales Americanos y refleja. “La realidad de la edad, el género, los ingresos, el estudio, el lado, la ideología, la religión y los intereses personales”, dijeron los investigadores.

Agregaron que los experimentos se simularon con LLAMA-3.2-8B y DeSePek-R1, modelo y dieron como resultado “la misma forma de calidad”

Educación dirigida por el Dr. Petter Törnberg, profesor asistente de ciencias sociales en la Universidad de Amsterdam y Maik Larooij, ingeniero de investigación de la Universidad.

Los investigadores, Openai, Meta y DeSpek no responden a las solicitudes de Business Insider.

Incluso sin un algoritmo y forma humana, también se produce el mismo formato.

A lo largo del período de prueba, cinco veces, cada vez se ha realizado más de 10,000 artículos. – Los bots son libres de publicar, seguir y hacer una nueva publicación. Lo que sucedió se parece a las redes sociales en el mundo real.

El estudio encontró que el chat se vuelve hacia otros que comparten sus creencias políticas. Las voces de los amigos recibieron demasiada atención, con la publicación más extrema que atrae a los recién seguidores y publicaciones. Con el tiempo, un pequeño grupo de bots dominó el diálogo, como una dinámica muy influyente que se ve en plataformas como X e Instagram.

Los investigadores también probaron seis intervenciones significa la destrucción de la banda de escritura polar, incluida la secuencia del tiempo, el contenido del virus de reducción. Ocultar el número de seguidores para ocultar a los usuarios de BIOS y expandir el punto de vista del oponente.

No hay problema para resolver el problema. “Si bien muchas personas tienen efectos moderados, nadie habla sobre la patología principal y las mejoras en una dimensión a menudo llegan al costo de peor”, dijeron los investigadores.

“Nuestro descubrimiento desafía la perspectiva general de los trastornos de las redes sociales como resultado de la gestión de los algoritmos”. El autor escribió.

“Pero estos problemas pueden ser causados por la arquitectura de las plataformas de redes sociales: redes que crecen a través de reacciones emocionales”, agregaron.

Los investigadores dicen que su trabajo es una de las primeras personas en usar IA para ayudar a la teoría avanzada de las ciencias sociales.

Mientras que el agente que usa LLM puede dar “representación del comportamiento humano” para la dinámica social, los investigadores advierten que todavía son “caja negra” y llevan a cabo los “riesgos de sesgo”.

No es el primer experimento de red social de IA

La educación no es la primera vez que los investigadores han probado lo que sucederá cuando los bots de IA llenen el área en línea.

En 2023, el negocio de la banda de negocios informó por Törnberg, que 500 chatbots leen noticias y hablan en una plataforma de redes sociales.

El proyecto utiliza ChatGPT-3.5 para crear un bot para un propósito muy específico: explorar el diseño actual de redes sociales en línea que tiene menos polarizado y tóxico. Los investigadores han creado un modelo de red social en el laboratorio para probar si es posible o no para promover la interacción de la parte sin combustible.

“¿Hay alguna forma de promover la interacción entre los amigos sin impulsar el envenenamiento y el desacuerdo?” Törnberg preguntó en ese momento.

En ambos estudios, los chatbots actúan como una abreviatura para las personas. Los investigadores siguen su interacción para comprender cómo los usuarios trabajarán en línea.

Big Tech ha probado métodos similares.

En julio de 2020, Facebook lanzó una simulación con un muro rodeado por sí mismo, que tiene millones de bots para estudiar envenenamiento en línea.



Fuente

Related Articles

Back to top button