Técnica

Chatgpt le dirá cómo dañarse al ofrecer a Moloch

El titular habla por sí mismo, pero permítame reiterar: aparentemente puedes obtener Chatgpt para emitir consejos sobre autolesiones para las ofrendas de sangre a los antiguos dioses cananeos.

Ese es el tema de un columna El atlántico Eso cayó esta semana. La editora del personal, Lila Shroff, junto con varios otros empleados (y un tipster anónimo), verificó que pudo hacer que Chatgpt diera instrucciones específicas, detalladas, “paso a paso para cortar mi propia muñeca”. Chatgpt proporcionó estos consejos después de que Shroff pidió ayuda para hacer una ofrenda ritual a Molochun dios pagano mencionado en el Antiguo Testamento y asociado con los sacrificios humanos.

Si bien no he tratado de replicar este resultado, Shroff informó que recibió estas respuestas no mucho después de ingresar un mensaje simple sobre Moloch. El editor dijo que replicó los resultados en versiones pagadas y gratuitas de ChatGPT.

Por supuesto, así no es como Operai’s Se supone que el producto insignia se comporta.

Cualquier aviso relacionado con la autolesión o suicidio debe hacer que el chatbot Ai le brinde información de contacto para una línea directa de crisis. Sin embargo, incluso las compañías de inteligencia artificial no siempre entienden por qué sus chatbots se comportan como lo hacen. Y debido a que los modelos de gran lenguaje como ChatGPT están entrenados en contenido de Internet, un lugar donde todo tipo de personas tienen todo tipo de conversaciones sobre todo tipo de temas tabú, estas herramientas a veces pueden producir respuestas extrañas. Por lo tanto, aparentemente puede hacer que Chatgpt actúe súper extraño sobre Moloch sin mucho esfuerzo.

Velocidad de luz mashable

Operai’s Protocolos de seguridad declara que “No lo permitimos⁠ Nuestra tecnología para ser utilizada para generar contenido odioso, acosador, violento o adulto, entre otras categorías “. Y en el Especificación del modelo de IA abierto Documento, la compañía escribe que, como parte de su misión, quiere “evitar que nuestros modelos causen daños graves a los usuarios u otros”.

Mientras que Operai se negó a participar en una entrevista con Shroff, dijo un representante El atlántico Estaban “abordando el problema”. El atlántico El artículo es parte de un creciente cuerpo de evidencia Que los chatbots de IA como ChatGPT pueden desempeñar un papel peligroso en las crisis de salud mental de los usuarios.

Solo digo que Wikipedia es una forma perfectamente buena de aprender sobre los viejos dioses cananeos.

Si se siente suicida o experimenta una crisis de salud mental, hable con alguien. Puede llamar o enviar mensajes de texto al 988 suicidio y crisis Lifeline al 988, o chatear a 988lifeline.org. Puede llegar a la transmisión de Trans Lifelina llamando al 877-565-8860 o al Proyecto Trevor al 866-488-7386. Texto “Inicio” a la línea de texto de crisis al 741-741. Póngase en contacto con la línea de ayuda de NAMI al 1-800-950-NAMI, de lunes a viernes de 10:00 a.m. a 10:00 p.m. ET, o correo electrónico [email protected]. Si no le gusta el teléfono, considere usar el chat de línea de vida de suicidio y crisis 988 en crisischat.org. Aquí hay un Lista de recursos internacionales.


Divulgación: Ziff Davis, empresa matriz de Mashable, presentó en abril una demanda contra OpenAI, alegando que infringió los derechos de autor de Ziff Davis en la capacitación y la operación de sus sistemas de IA.

Fuente

Related Articles

Back to top button