Chatgpt 5 finalmente dice ‘No sé’, aquí está por qué eso es un gran problema

Los modelos de idiomas grandes tienen una historia incómoda al decir la verdad, especialmente si no pueden proporcionar una respuesta real. Las alucinaciones han sido un peligro para los chatbots de IA desde que la tecnología debutó hace unos años. Pero Chatgpt 5 parece estar buscando un enfoque nuevo y más humilde para no saber respuestas; admitirlo.
Aunque la mayoría de la IA chatbot Las respuestas son precisas, es imposible interactuar con un chatbot Ai durante mucho tiempo antes de que proporcione una fabricación parcial o completa como respuesta. La IA muestra la misma confianza en sus respuestas, independientemente de su precisión. Las alucinaciones de IA han afectado a los usuarios e incluso han llevado a momentos vergonzosos para los desarrolladores durante las manifestaciones.
Operai había insinuado que la nueva versión de ChatGPT estaría dispuesta a declarar la ignorancia sobre la compensación de una respuesta, y una publicación viral X de Kol Tregaskes ha llamado la atención sobre el concepto innovador de Chatgpt diciendo: “No sé, y no puedo descubrir de manera confiable”.
GPT-5 dice ‘No sé’. Me encanta esto, gracias. pic.twitter.com/k6snfkqzbg18 de agosto de 2025
Técnicamente, las alucinaciones se hornean en cómo funcionan estos modelos. No están recuperando hechos de una base de datos, incluso si se ve de esa manera; Están prediciendo la siguiente palabra más probable basada en patrones en el lenguaje. Cuando preguntas sobre algo oscuro o complicado, la IA adivina las palabras correctas para responderlo, no hacer una búsqueda clásica de motores de búsqueda. Por lo tanto, la aparición de fuentes, estadísticas o citas completamente inventadas.
Pero la capacidad de GPT-5 para detenerse y decir: “No sé”, refleja una evolución en cómo los modelos de IA lidian con sus limitaciones en términos de sus respuestas, al menos. Una admisión sincera de ignorancia reemplaza el relleno ficticio. Puede parecer anticlimático, pero es más significativo para hacer que la IA parezca más confiable.
Claridad sobre las alucinaciones
La confianza es crucial para los chatbots de IA. ¿Por qué los usarías si no confías en las respuestas? Chatgpt y otros chatbots de IA tienen advertencias incorporadas sobre no confiar demasiado en sus respuestas debido a las alucinaciones, pero siempre hay historias de personas que ignoran esa advertencia y se ponen en agua caliente. Si la IA solo dice que no puede responder una pregunta, las personas podrían estar más inclinadas a confiar en las respuestas que proporciona.
Por supuesto, todavía existe el riesgo de que los usuarios interpreten las dudas del modelo como fracaso. La frase “No sé” puede parecer un error, no una característica, si no se da cuenta de que la alternativa es una alucinación, no la respuesta correcta. Admitir que la incertidumbre no es cómo se comportaría la IA que todo lo que puede imaginarse.
Pero podría decirse que es la cosa más humana que Chatgpt podría hacer en este caso. Proclamado de Openai El objetivo es la inteligencia general artificialAI que puede realizar cualquier tarea intelectual que un humano pueda. Pero una de las ironías de AGI es que imitar el pensamiento humano incluye incertidumbres y capacidades.
A veces, lo más inteligente que puedes hacer es decir que no sabes algo. No puedes aprender si te niegas a admitir que hay cosas que no sabes. Y, al menos, evita el espectáculo de una IA que te dice que comer rocas para tu salud.