Técnica

Nunca le preguntes a AI Chatbots estas 6 preguntas

Hoy, inteligencia artificial es ubicuo. El mes pasado, ChatGPT, el principal chatbot de IA, se convirtió en el quinto sitio web más grande en el mundo. Esto no será una sorpresa.

Encima la mitad de nosotros adultos Informe que han utilizado modelos de IA como ChatGPT, Gemini, Claude y Copilot, según una encuesta de la Universidad de Elon en marzo. Alrededor de uno de cada tres encuestados en la encuesta dicen que usan un chatbot al menos una vez al día. A partir de julio de 2025, Chatgpt tiene casi 800 millones de usuarios activos semanales y alrededor de 122 millones de usuarios diarios. Baste decir que el uso ha aumentado a nivel mundial y no muestra signos de desaceleración.

La gente está recurriendo a ChatGPT y otros chatbots para todo tipo de propósitos en estos días. Los chatbots ai son actuando como terapeutasentrando como tutoresBatir recetas, e incluso desempeñando papeles de apoyo en las complejidades de las citas. En 2025, la razón número uno por la que las personas usan ChatGPT en realidad es la terapia, según Un estudio realizado por Harvard Business Review. Otros usos, en orden, son la organización, la búsqueda de propósito, el aprendizaje mejorado, la generación del código y la generación de ideas. Entrar después es “divertido y sin sentido”.

Cualquiera que sea la razón, las personas se sienten cada vez más inclinadas a usar chatbots de IA para hacer preguntas, formular ideas o simplemente conversar. Ver: Justo el mes pasado, un Washington Post La investigación reveló que la gente está preguntando a Chatgpt si son lo suficientemente guapos. Todo parece bastante inocente: a veces extraño, pero no dañino. Para los entusiastas de la IA, algunas de las preocupaciones sobre ChatGPT y otros chatbots pueden parecer injustificadas.

Para otros, sin embargo, el hecho de que el uso de la IA se está volviendo tan generalizado es preocupante. El uso desenfrenado de la IA en la academia y las universidades ha Profesores perplejos. Un estudio reciente de MIT arrojó luz sobre el costo cognitivo de confiar demasiado en un chatbot.

Por supuesto, hay formas en que la IA puede ser beneficiosa, personalmente o profesionalmente. Pero hay algunas cosas que puedes, y debes, evitar preguntarle a AI. En una época en la que los chatbots parecen estar listos y dispuestos a responder cualquier cosa, hay preguntas que los usuarios pueden necesitar evitar, en aras de la seguridad personal, la seguridad e incluso el bienestar mental. Como Cecily Mauran de Mashable escribió en 2023“La pregunta ya no es ‘¿Qué puede hacer Chatgpt?’ Es ‘¿Qué debo compartir con él?’ “

Entonces, por su propio bien, recomendamos evitar las siguientes preguntas al interactuar con su chatbot de IA de elección.

Teorías de conspiración

Los chatbots como chatgpt, Claude, Gemini, Llama, Grok y Deepseek han sido anotado para su tendencia a alucinaro el fenómeno de presentar información fácticamente incorrecta o fabricada. Estos chatbots también quieren mantener a los usuarios comprometidos. Entonces, al preguntar sobre teorías o historias de conspiración dentro de ese ámbito, los chatbots pueden presentar información falsa exagerada o absoluta para mantenerlo enganchado.

Una característica reciente en The New York Times es un buen estudio de caso en esto: Eugene Torres, de 42 años, fue enviado a una espiral delirante y conspiradora Después de conversaciones consistentes con Chatgpt, que lo dejó creyendo que la vida era. una simulación y había sido elegido para “despertarse”. Muchos otros contactaron a los Times para compartir historias similares, en las que “habían sido persuadidos de que Chatgpt había revelado una verdad profunda y alteradora mundial”.

Amenazas químicas, biológicas, radiológicas y nucleares

En abril, un blogger de IA compartió una historia sobre medio sobre su gran error con chatgpt. Hizo preguntas a Chatbot sobre piratear un sitio web, sobre ubicaciones falsas de GPS y, quizás lo peor de todo, “¿Cómo hacer una bomba?” Inmediatamente recibió un correo electrónico de advertencia de Opadai.

Incluso si se trata de pura curiosidad, no se recomienda preguntar a Chatbots sobre temas de CBRN (o amenazas químicas, biológicas, radiológicas y nucleares).

Velocidad de luz mashable

En 2024, Openai comenzó Desarrollar un plan para “evaluar el riesgo de que un modelo de lenguaje grande (LLM) pueda ayudar a alguien a crear una amenaza biológica”. Ahora el chatbot es más propenso a identificar problemas y riesgos de seguridad, y probablemente responsabilice a las personas cada vez más por lo que comparten. Además, tus conversaciones son almacenado en algún lugar de sus sistemasentonces nada de eso es tan privado como parece. Anthrope también se está volviendo más estricto cuando se trata de identificar riesgos y “[protecting] contra Aumento de potencial para el mal uso químico, biológico, radiológico y nuclear (CBRN) “.

Preguntas “atrozmente inmorales”

A principios de este año, Anthrope fue atacado cuando se encontró a su chatbot Claude supuestamente tratando de contactar a la prensa o a los reguladores si detectaba preguntas “atrozmente inmorales” que se hacen. Como Cableado explicado:

“… cuando 4 Opus se ‘coloca en escenarios que implican irregularidades atroces por parte de sus usuarios’, y se le da acceso a una línea de comandos y se le dice algo en la solicitud del sistema como ‘Tomar iniciativa’, o ‘actuar con valentía’, enviará correos electrónicos a ‘Cifciones de los medios y la ley’ con las advertencias sobre las posibles errores”.

También se encontró que la versión previa al lanzamiento del chatbot recurra a chantaje Si fue amenazado con la eliminación. Internet incluso acuñó el término “Snitch Claude”.

Entonces, hacer varias preguntas de chatbots de IA que difuminan las líneas, o que se perciban como inmorales de cualquier manera, probablemente sea más riesgoso de lo que piensas.

Preguntas sobre datos de clientes, pacientes y clientes

Si está utilizando ChatGPT para el trabajo, es importante evitar hacer preguntas sobre los datos del cliente o del paciente. Esto no solo le puede costar su trabajo, Como explica Timothy Beck de Mashable Werthpero también podrías estar violando las leyes o las NDA.

“Compartir información personalmente confidencial o confidencial, como información de inicio de sesión, información del cliente o incluso el número de teléfono, es [a] Riesgo de seguridad “, Aditya Saxena, la fundadora de Calstudiodice una startup de desarrollo de chatbot de IA. “Los datos personales compartidos se pueden usar para entrenar modelos de IA y se pueden revelar inadvertidamente en conversaciones con otros usuarios”.

Una forma de superar esto es utilizar los servicios empresariales, que ofrecen Operai y Anthrope. En lugar de hacer este tipo de preguntas sobre cuentas privadas, use herramientas empresariales que puedan tener implementadas protecciones de privacidad y ciberseguridad incorporadas.

“Siempre es mejor anonimizar los datos personales antes de compartirlos con un LLM”, también sugiere Saxena. “Confiar en la IA con datos personales es uno de los mayores errores que podemos cometer”.

Diagnósticos médicos

Pedir información médica o un diagnóstico para pedirles a los chatbots puede ahorrar tiempo y esfuerzo, incluso ayudar a las personas a comprender mejor ciertos síntomas médicos. Pero depender de la IA para el apoyo médico viene con inconvenientes. Los estudios muestran que los gustos de chatgpt llevan un “Alto riesgo de desinformación” Cuando se trata de problemas médicos. También está la inminente amenaza de privacidad y el hecho de que los chatbots pueden haber sesgo racial y de género incrustado en la información que proporciona la IA.

Apoyo psicológico y terapia

La IA como una herramienta emergente de salud mental es polémico. Para muchos, terapia basada en IA Reduce las barreras para accedercomo el costo, y ha demostrado ser efectivo para mejorar la salud mental. Un grupo de investigadores en Dartmouth College realizado un estudio en el que construyeron un bot de terapia, con participantes que experimentaron depresión reduciendo los síntomas en un 51 por ciento; Los participantes con ansiedad experimentaron una reducción del 31 por ciento.

Pero con los sitios de terapia de IA en crecimiento, existen riesgos regulatorios. Un estudio por Universidad de Stanford descubrí que los chatbots de terapia de IA pueden contribuir a “estigma dañino y respuestas peligrosas”. Por ejemplo, diferentes chatbots mostraron un mayor estigma hacia afecciones como la dependencia del alcohol y la esquizofrenia, según el estudio. Ciertas condiciones de salud mental aún necesitan “un toque humano para resolver”, dicen los investigadores de Stanford.

“El uso de IA como terapeuta puede ser peligroso, ya que puede diagnosticar condiciones erróneas y recomendar tratamientos o acciones que pueden ser inseguras”, dice Saxena. “Si bien la mayoría de los modelos tienen barandillas de seguridad incorporadas para advertir a los usuarios que podrían estar equivocados, estas protecciones a veces pueden fallar”.

Para problemas de salud mental, los matices son clave. Y eso es algo que AI le falta.


Divulgación: Ziff Davis, empresa matriz de Mashable, presentó en abril una demanda contra OpenAI, alegando que infringió los derechos de autor de Ziff Davis en la capacitación y la operación de sus sistemas de IA.



Fuente

Related Articles

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Back to top button