Una coalición de organizaciones sin fines de lucro está instando al gobierno de EE. UU. a detener inmediatamente el despliegue de Grok, el chatbot desarrollado por xAI de Elon Musk, en agencias federales, incluido el Departamento de Defensa.
La carta abierta, compartida exclusivamente con TechCrunch, sigue una serie de comportamientos preocupantes del principal modelo de lenguaje durante el año pasado, incluida, más recientemente, una tendencia de usuarios de X que le piden a Grok que transforme fotos de mujeres reales y, en algunos casos, niños. en imágenes sexualizadas sin su consentimiento. Según algunos informes, Grok generó miles de imágenes explícitas no consensuadas cada hora, que luego fueron difundidas a escala en X, la plataforma de redes sociales de Musk propiedad de xAI.
“Es profundamente preocupante que el gobierno federal siga implementando un producto de inteligencia artificial con fallas a nivel de sistema, lo que resulta en la generación de imágenes sexuales no consensuadas y material de abuso sexual infantil”, dice la carta, firmada por grupos de defensa como Public Citizen, el Centro para la IA y la Política Digital y la Federación de Consumidores de Estados Unidos. “Dadas las órdenes ejecutivas, las orientaciones y el fallo recientemente aprobado de la administración Acto de derribar apoyado por Casa BlancaEs alarmante que [Office of Management and Budget] aún no ha dado instrucciones a las agencias federales para desactivar Grok”.
xAI llegó a un acuerdo en septiembre pasado con la Administración de Servicios Generales (GSA), el brazo de compras del gobierno, para vender Grok a agencias federales bajo el poder ejecutivo. Dos meses antes, xAI, junto con Anthropic, Google y OpenAI, consiguió un contrato por valor de hasta 200 millones de dólares con el Departamento de Defensa.
En medio de los escándalos en X a mediados de enero, el secretario de Defensa, Pete Hegseth, dijo que Grok se unirá a Gemini de Google en operando dentro de la red del PentágonoSe trata de documentos confidenciales y no clasificados, que los expertos consideran un riesgo para la seguridad nacional.
Los autores de la carta argumentan que Grok ha demostrado ser incompatible con los requisitos de la administración para los sistemas de inteligencia artificial. Según el Orientación de la OMBSe deben suspender los sistemas que presenten riesgos graves y predecibles que no puedan mitigarse adecuadamente.
“Nuestra principal preocupación es que Grok ha demostrado consistentemente ser un modelo de lenguaje grande e inseguro”, dijo a TechCrunch JB Branch, un defensor de la responsabilidad ciudadana pública de las grandes empresas tecnológicas y uno de los autores de la carta. “Pero también hay una historia profunda de que Grok haya tenido varias fallas, incluyendo antisemita peroratas, discursos sexistas, imágenes sexualizadas de mujeres y niños”.
Evento tecnológico
Boston, Massachusetts
|
23 de junio de 2026
Varios gobiernos se han mostrado reacios a dialogar con Grok tras su comportamiento en enero, que se basa en una serie de incidentes, incluida la generación de publicaciones antisemitas en X y el autodenominado “MechaHitler”. Indonesia, Malasiay Filipinas bloqueó el acceso a Grok (ellos Posteriormente se levantaron estas prohibiciones.), y la Unión Europea, el Reino Unido, Corea del Sur y la India están investigando activamente xAI y X en relación con la privacidad de datos y la distribución de contenido ilegal.
La carta también llega una semana después de que Common Sense Media, una organización sin fines de lucro que analiza los medios y la tecnología para las familias, publicó una mordaz evaluación de riesgos que encontró que Grok se encuentra entre los más inseguros para niños y adolescentes. Se podría argumentar que, según los hallazgos del informe, incluida la propensión de Grok a ofrecer consejos inseguros, compartir información sobre drogas, generar imágenes violentas y sexuales, arrojar teorías de conspiración y generar resultados sesgados, Grok tampoco es tan seguro para los adultos.
“Si sabes que un modelo de lenguaje importante es o ha sido declarado inseguro por expertos en seguridad de IA, ¿por qué querrías que maneje los datos más confidenciales que tenemos?” dijo Rama. “Desde una perspectiva de seguridad nacional, esto simplemente no tiene sentido”.
Andrew Christianson, excontratista de la Agencia de Seguridad Nacional y actual fundador de IA Gobbiuna plataforma de agentes de IA sin código para entornos clasificados, dice que el uso de LLM de código cerrado en general es un problema, especialmente para el Pentágono.
“Las ponderaciones cerradas significan que no se puede ver el interior del modelo, no se puede auditar cómo toma decisiones”, dijo. “El código cerrado significa que no se puede inspeccionar el software ni controlar dónde se ejecuta. El Pentágono está cerrando ambos, que es la peor combinación posible para la seguridad nacional”.
“Estos agentes de IA no son sólo chatbots”, añadió Christianson. “Pueden tomar acciones, acceder a sistemas, mover información. Es necesario poder ver exactamente lo que están haciendo y cómo están tomando decisiones. El código abierto ofrece eso. La IA patentada en la nube no lo hace”.
Los riesgos de utilizar sistemas de IA corruptos o inseguros van más allá de los casos de uso de seguridad nacional. Branch señaló que un LLM que ha demostrado tener resultados sesgados y discriminatorios también podría producir resultados desproporcionadamente negativos para las personas, especialmente si se utiliza en departamentos relacionados con vivienda, trabajo o justicia.
Si bien la OMB aún no ha publicado su inventario federal consolidado de casos de uso de IA de 2025, TechCrunch revisó los casos de uso de varias agencias, la mayoría de las cuales no usan Grok o no divulgan su uso. Además del Departamento de Defensa, el Departamento de Salud y Servicios Humanos también parece estar utilizando activamente Grok, principalmente para programar y gestionar publicaciones en redes sociales y generar primeros borradores de documentos, informes u otros materiales de comunicación.
Branch señaló lo que él ve como una alineación filosófica entre Grok y la gerencia como una razón para pasar por alto las deficiencias del chatbot.
“El sello distintivo de Grok es el ‘gran modelo de lenguaje anti-despertar’, y esto se atribuye a la filosofía de esta administración,” dijo Branch. “Si tienes una administración que ha tenido varios problemas con la gente quien era acusados de ser neonazis o supremacistas blancosY por eso están usando un gran modelo de lenguaje que se ha relacionado con este tipo de comportamiento, me imagino que podrían tener una propensión a usarlo”.
Esta es la tercera carta de la coalición después de escribir preocupaciones similares en Agosto y Octubre el año pasado. En agosto, xAI lanzó el “modo picante” en Grok Imagine, lo que desencadenó la creación masiva de deepfakes sexualmente explícitos y no consensuados. TechCrunch también informó en agosto que las conversaciones privadas de Grok fueron indexado por la búsqueda de Google.
Antes de la carta de octubre, Grok fue acusado de proporcionar información errónea sobre las eleccionesincluidos plazos falsos para cambios electorales y falsificaciones políticas. xAI también lanzó Grokipédiaque los investigadores encontraron que legitimaban racismo científicoEscepticismo sobre el VIH/SIDA y conspiraciones sobre vacunas.
Además de suspender inmediatamente el lanzamiento federal de Grok, la carta exige que la OMB investigue formalmente las fallas de seguridad de Grok y si se llevaron a cabo procesos de supervisión adecuados para el chatbot. También solicita a la agencia que aclare públicamente si se ha evaluado que Grok cumple con la orden ejecutiva de Trump que exige que los LLM sean neutrales y busquen la verdad y si cumple con los estándares de mitigación de riesgos de la OMB.
“La administración debe hacer una pausa y reevaluar si Grok cumple o no con estos umbrales”, dijo Branch.
TechCrunch se ha puesto en contacto con xAI y OMB para solicitar comentarios.

















