- OpenAI firmó un acuerdo con el Departamento de Guerra de EE. UU.
- Como resultado, una cantidad significativa de usuarios de ChatGPT están abandonando la aplicación.
- Anthropic ha planteado anteriormente preocupaciones sobre seguridad y protección
Después del desarrollador Claude Anthropic se fue Tras un acuerdo con el Departamento de Guerra de EE. UU. sobre cuestiones de seguridad, OpenAI decidió firmar un acuerdo con el ejército, y los usuarios de ChatGPT no están nada contentos con ello.
Según lo informado por Centro de WindowsUn número cada vez mayor de personas está cancelando sus suscripciones a ChatGPT y cambiando a otros chatbots de IA, incluido Claude. Una rápida navegación en las redes sociales o Reddit es suficiente para ver que hay una reacción creciente al cambio.
Algunos redactores están publicando guías para extraerlo a usted y sus datos de ChatGPT, mientras que otros acusan a OpenAI de tener “poco ético” y “vendiendo tu alma” al aceptar permitir que sus modelos de IA sean utilizados por el complejo militar estadounidense.
Mientras tanto, el inversor en tecnología Aidan Gold llevó a X para resaltar que OpenAI apoyó la postura de seguridad de Anthropic justo antes de firmar un acuerdo con el DoW. El gobierno de Estados Unidos también anunció su intención de destituir a Claude de todos sus departamentos.
Ética oscura de la IA
Permítanme aclarar esto: Anthropic se negó a trabajar con el Departamento de Guerra a menos que pudiera prometer que su tecnología no se utilizaría para vigilancia o asesinato. DoW dijo que necesitan capacidades completas. Antropica se negó a dar acceso completo. OpenAI apoyó a Anthropic para garantizar la seguridad de la IA.…28 de febrero de 2026
La ética de la IA ha sido turbia durante mucho tiempo: la mayoría de los chatbots más populares de la actualidad se entrenaron en montañas de trabajos robados y protegidos por derechos de autorconllevan la amenaza de provocar despidos masivos y consumen grandes cantidades de energía.
Sin embargo, a principios de esta semana Anthropic dibujó una línea cuando se trataba de permitir que su tecnología de inteligencia artificial se utilizara para “vigilancia masiva” y “armas totalmente autónomas”. Antropica quería salvaguardias en estas áreas y el Departamento de Guerra no estaba dispuesto a aceptarlas.
Ingrese a OpenAI: la empresa dice Su acuerdo con el ejército estadounidense “tiene más barreras” que el que Anthropo rechazó, incluso en torno a la vigilancia masiva y las armas totalmente autónomas, con “líneas rojas” que OpenAI planea imponer en el futuro.
Sin embargo, los usuarios de ChatGPT no están convencidos, especialmente cuando se trata del lenguaje “para todos los fines legales” utilizado en el acuerdo. Este es un debate que continuará, pero mientras tanto, Claude alcanzó el primer lugar nodo Basura Tienda de aplicaciones.
Siga TechRadar en Google News y agréganos como fuente preferida para recibir noticias, análisis y opiniones de expertos en tus feeds. ¡Asegúrese de hacer clic en el botón Seguir!
Y, por supuesto, también puedes seguir a TechRadar en YouTube y tiktok para noticias, reseñas, unboxings en formato de video y reciba actualizaciones periódicas de nuestra parte en WhatsApp también.
Las mejores computadoras portátiles para cada presupuesto.














