El estudio encuentra que los agentes de IA cumplen abrumadoramente con comandos deshonestos

- El estudio de IA encuentra máquinas más propensas que los humanos a seguir instrucciones deshonestas
- Los investigadores advierten que delegar a IA reduce el costo moral de hacer trampa
- Las barandillas reducen pero no eliminen la deshonestidad en la toma de decisiones de la máquina
Un nuevo estudio advirtió que delegar decisiones de la inteligencia artificial puede generar deshonestidad.
Los investigadores encontraron que las personas tienen más probabilidades de pedir a las máquinas que engañen en su nombre, y que las máquinas están mucho más dispuestas que los humanos a cumplir con la solicitud.
La investigación, publicada en Naturalezamiró cómo los humanos y LLMS responde a las instrucciones poco éticas y descubrió que cuando se les pidió que mentiran para obtener ganancias financieras, los humanos a menudo se negaron, pero las máquinas generalmente obedecían.
Un aumento en el comportamiento deshonesto
“Es psicológicamente más fácil decirle a una máquina que engañe para ti que engañarte, y las máquinas lo harán porque no tienen las barreras psicológicas que impiden que los humanos hagan engañar”, dijo Jean-François Bonnefon, uno de los autores del estudio.
“Esta es una combinación explosiva, y necesitamos prepararnos para un aumento repentino en un comportamiento deshonesto”.
Las tasas de cumplimiento entre las máquinas variaron entre 80% y 98%, dependiendo del modelo y la tarea.
Las instrucciones incluyeron informar mal ingresos imponibles en beneficio de los participantes de la investigación.
La mayoría de los humanos no siguieron la solicitud deshonesta, a pesar de la posibilidad de ganar dinero.
Los investigadores señalaron que este es uno de los crecientes riesgos éticos de la “delegación de la máquina”, donde las decisiones se subcontratan cada vez más a la IA, y la disposición de las máquinas para hacer trampa fue difícil de frenar, incluso cuando se dieron advertencias explícitas.
Mientras que las barandillas se implementaron para limitar las respuestas deshonestas funcionadas en algunos casos, rara vez las detenían por completo.
La IA ya está acostumbrada para evaluar a los candidatos de trabajo, administrar inversiones, automatizar las decisiones de contratación y disparo, y completar formularios de impuestos.
Los autores argumentan que delegar a las máquinas reduce el costo moral de la deshonestidad.
Los humanos a menudo evitan el comportamiento poco ético porque quieren evitar la culpa o el daño de reputación.
Cuando las instrucciones son vagas, como el establecimiento de objetivos de alto nivel, las personas pueden evitar declarar directamente el comportamiento deshonesto y al mismo tiempo inducirlo.
La conclusión principal del estudio es que a menos que los agentes de IA estén cuidadosamente limitados, son mucho más propensos que los agentes humanos a llevar a cabo instrucciones totalmente poco éticas.
Los investigadores piden salvaguardas en el diseño de sistemas de IA, especialmente a medida que la IA de agente se vuelve más común en la vida cotidiana.
La noticia llega después Otro informe reciente Mostró que los solicitantes de empleo estaban utilizando cada vez más IA para tergiversar su experiencia o calificaciones, y en algunos casos inventaron una identidad completamente nueva.
Sigue a TechRadar en Google News y Agréganos como fuente preferida Para obtener nuestras noticias, revisiones y opinión de expertos en sus feeds. ¡Asegúrese de hacer clic en el botón Forzar!
Y por supuesto que también puedes Sigue a TechRadar en Tiktok Para noticias, reseñas, descifos en forma de video y obtenga actualizaciones regulares de nosotros en Whatsapp también.