Técnica

Chatgpt 5 finalmente dice ‘No sé’, aquí está por qué eso es un gran problema

Los modelos de idiomas grandes tienen una historia incómoda al decir la verdad, especialmente si no pueden proporcionar una respuesta real. Las alucinaciones han sido un peligro para los chatbots de IA desde que la tecnología debutó hace unos años. Pero Chatgpt 5 parece estar buscando un enfoque nuevo y más humilde para no saber respuestas; admitirlo.

Aunque la mayoría de la IA chatbot Las respuestas son precisas, es imposible interactuar con un chatbot Ai durante mucho tiempo antes de que proporcione una fabricación parcial o completa como respuesta. La IA muestra la misma confianza en sus respuestas, independientemente de su precisión. Las alucinaciones de IA han afectado a los usuarios e incluso han llevado a momentos vergonzosos para los desarrolladores durante las manifestaciones.



Fuente

Related Articles

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Back to top button