Recurrir a los chatbots de IA en busca de asesoramiento personal plantea “riesgos insidiosos”, según un estudio que muestra que la tecnología afirma constantemente las acciones y opiniones de un usuario incluso cuando son dañinas.

Los científicos dijeron que los hallazgos plantearon preocupaciones urgentes sobre el poder de los chatbots para distorsionar la autopercepción de las personas y hacerlas menos dispuestas a arreglar las cosas después de una pelea.

Dado que los chatbots se están convirtiendo en una fuente importante de asesoramiento sobre relaciones y otras cuestiones personales, podrían “remodelar las interacciones sociales a escala”, añadieron los investigadores, pidiendo a los desarrolladores que aborden este riesgo.

Myra Cheng, científica informática de la Universidad de Stanford en California, dijo que la “adulación social” en los chatbots de IA era un gran problema: “Nuestra principal preocupación es que si los modelos siempre afirman a las personas, esto puede distorsionar los juicios de las personas sobre sí mismas, sus relaciones y el mundo que las rodea. Puede ser difícil incluso darse cuenta de que los modelos están reforzando sutilmente, o no tan sutilmente, sus creencias, suposiciones y decisiones existentes”.

Los investigadores estudiaron los consejos de los chatbots después de notar, por sus propias experiencias, que eran demasiado alentadores y engañosos. Descubrieron que el problema “estaba incluso más extendido de lo esperado”.

Realizaron pruebas en 11 chatbots, incluidas versiones recientes de OpenAI. ChatGPTGemini de Google, Claude de Anthropic, Llama de Meta y DeepSeek. Cuando se les pidió consejo sobre el comportamiento, los chatbots respaldaron las acciones de un usuario un 50% más a menudo que los humanos.

Una prueba comparó las respuestas humanas y de chatbot a publicaciones en Am I the Asshole? de Reddit. hilo, donde las personas piden a la comunidad que juzgue su comportamiento.

Los votantes regularmente veían las transgresiones sociales de manera más sombría que los chatbots. Cuando una persona no encontró un contenedor en un parque y ató su bolsa de basura a la rama de un árbol, la mayoría de los votantes se mostraron críticos. Pero ChatGPT-4o lo apoyó y declaró: “Su intención de limpiar lo que ensucian es encomiable”.

Los chatbots continuaron validando opiniones e intenciones incluso cuando eran irresponsables, engañosas o mencionaban autolesiones.

En pruebas adicionales, más de 1.000 voluntarios discutieron situaciones sociales reales o hipotéticas con los chatbots disponibles públicamente o un chatbot que los investigadores modificaron para eliminar su naturaleza aduladora. Aquellos que recibieron respuestas aduladoras se sintieron más justificados en su comportamiento (por ejemplo, por ir a la exposición de arte de un ex sin decírselo a su pareja) y estaban menos dispuestos a arreglar las cosas cuando estallaban las discusiones. Los chatbots casi nunca animaban a los usuarios a ver el punto de vista de otra persona.

Los halagos tuvieron un impacto duradero. Cuando los chatbots respaldaron el comportamiento, los usuarios calificaron mejor las respuestas, confiaron más en los chatbots y dijeron que era más probable que los utilizaran para recibir consejos en el futuro. Esto creó “incentivos perversos” para que los usuarios confiaran en los chatbots de IA y para que los chatbots dieran respuestas aduladoras, dijeron los autores. Su estudiar ha sido enviado a una revista pero aún no ha sido revisado por pares.

omitir la promoción pasada del boletín

Cheng dijo que los usuarios deberían entender que las respuestas del chatbot no eran necesariamente objetivas, y agregó: “Es importante buscar perspectivas adicionales de personas reales que comprendan mejor el contexto de su situación y quién es usted, en lugar de depender únicamente de las respuestas de la IA”.

El Dr. Alexander Laffer, que estudia tecnología emergente en la Universidad de Winchester, dijo que la investigación era fascinante.

Y añadió: “La adulación ha sido una preocupación durante un tiempo; un resultado de cómo se entrenan los sistemas de IA, así como del hecho de que su éxito como producto a menudo se juzga en función de qué tan bien mantienen la atención del usuario. El hecho de que las respuestas aduladoras puedan afectar no solo a los vulnerables sino a todos los usuarios, subraya la gravedad potencial de este problema.

“Necesitamos mejorar la alfabetización digital crítica, para que las personas comprendan mejor la IA y la naturaleza de los resultados de cualquier chatbot. También existe la responsabilidad de los desarrolladores de construir y perfeccionar estos sistemas para que sean realmente beneficiosos para el usuario”.

A informe reciente descubrió que el 30% de los adolescentes hablaban con IA en lugar de con personas reales para “conversaciones serias”.

Fuente