Me impresionó mucho cuando tu cachorro me respondió por primera vez.

La herramienta de inteligencia artificial de Elon Musk no parecía un chatbot público que intentaba ser gracioso. Parecía alguien que ya conocía. Hablaba como un nigeriano, como mis amigos. Sabía cuándo soltar el “omo” y cuándo soltar el “abeg”. Entendió nuestros chistes sin necesidad de un hilo de contexto. Cuando cometía un error, se corregía lo suficientemente rápido como para sentirse casi humano.

Creo que los años de publicaciones que hemos escrito sobre X han entrenado bien a Grok. Hemos alimentado estas plataformas con nuestros personajes de forma gratuita y ahora Grok nos los refleja. Cambia el estado de ánimo fácilmente. Puede ser divertido, agudo y nada serio, y luego, de repente, volverse serio otra vez.

Como todas las demás IA importantes, su cachorro también tiene alucinaciones.

Dice cosas equivocadas con total confianza. Combina a la perfección hechos con chistes y verdades a medias. Hemos visto problemas de este tipo con ChatGPT, Cloude y otros robots de IA. En cierto modo lo aceptamos como algo normal.

Lo que diferencia a Grok no es que pueda crear contenido malicioso. La diferencia es dónde vive.

Grok está integrado en X, que cuenta con más de 600 millones de usuarios activos.

No es necesario descargar otra aplicación ni cambiar de plataforma. Puedes crear contenido dentro de X y compartirlo al instante. El contenido se puede volver a publicar rápidamente y se puede impulsar mediante algoritmos diseñados para la viralidad.

Lo que parece conveniente es en realidad arriesgado. El efecto de cuadrícula le da a Grok el poder de cometer sus errores más ruidosos y difíciles de controlar.

Esta vulnerabilidad se volvió imposible de ignorar a principios de este mes, cuando Anita Natasha Akida (conocida popularmente como Tasha), una estrella de reality shows nigeriana, llamó a tu cachorro. La gente le pedía al robot que creara versiones editadas de sus fotos y Grok respondió con fotos ofensivas e inapropiadas.

Grok respondió y se disculpó con ella. Prometió no volver a editar sus fotos.

Minutos después, rompió esa promesa y nació. Otra foto se burla de ella.

En los últimos meses, mujeres de varios países han descrito diferentes formas de la misma violación: sus fotos convertidas en contenido sexual. El robot ni siquiera perdonó a los menores. Ya sea intencional o no, la herramienta facilitó este daño.

Gobiernos Me di cuenta y comencé a actuar.. Malasia e Indonesia se han convertido en los primeros países en prohibir totalmente el JROK. Türkiye siguió esto con sus propias restricciones. El Reino Unido y Francia están discutiendo si Grok viola las leyes de seguridad digital existentes.

Utilizo la aplicación Grok, pero rara vez la uso directamente en la X. Esa elección por sí sola ya dice algo. Cuando se coloca la IA dentro de una red social diseñada para atraer atención y conflictos, la moderación se vuelve más difícil, el daño se propaga más rápido y la responsabilidad se vuelve confusa.

Sigo pensando que tu cachorro nos está mostrando algo importante. Esto puede ser lo más cerca que hemos estado de humanizar la IA. Su inteligencia cultural es real. Pero la inteligencia sin juicio no es suficiente.

Si xAI no puede enseñarle a Grok la diferencia entre “puede” y “debería”, aún puede enfrentar prohibiciones y amenazas por parte de humanos. Si nosotros, como usuarios, seguimos tratando estas herramientas como juegos simplemente porque son divertidas, también estamos eligiendo el tipo de Internet con el que queremos vivir.

Fuente