Investigador de seguridad de Anthropic AI renuncia y dice ‘el mundo está en peligro’ – National

Uno inteligencia artificial El investigador dejó su trabajo en la firma estadounidense Anthropic esta semana con una críptica advertencia sobre el estado del mundo; Marcó la última renuncia en una ola de salidas por riesgos de seguridad y dilemas éticos.

en una carta Publicado en XMrinank Sharma escribió que logró todo lo que esperaba durante su estancia en la universidad. inteligencia artificial era una empresa de seguridad y estaba orgullosa de sus esfuerzos, pero también estaba superando los temores de que “el mundo está en peligro” no sólo por la IA sino por “una serie de crisis interconectadas” que iban desde el bioterrorismo hasta las preocupaciones sobre la “adulación” de la industria.

La historia continúa debajo del anuncio.

Dijo que se sentía llamado a escribir, a licenciarse en poesía y a dedicarse a “la práctica de la conversación valiente”.

“Durante mi estancia aquí, he visto una y otra vez lo difícil que es dejar que nuestros valores guíen nuestras acciones”, continuó.

Anthropic fue fundada en 2021 por un grupo de ex empleados de OpenAI que se comprometieron a diseñar un enfoque para el desarrollo de la IA más centrado en la seguridad que sus rivales.

Para conocer las noticias que afectan a Canadá y el mundo, regístrese para recibir alertas de noticias de última hora que se le enviarán directamente cuando sucedan.

Recibe las últimas noticias nacionales

Para conocer las noticias que afectan a Canadá y el mundo, regístrese para recibir alertas de noticias de última hora que se le enviarán directamente cuando sucedan.

Sharma dirigió el equipo de investigación de protección de IA de la empresa..

Anthropic ha publicado informes que describen la seguridad de sus propios productos, incluido Claude, un gran modelo de lenguaje basado en razonamiento híbrido, y se promociona como una empresa comprometida con la construcción de sistemas de inteligencia artificial confiables y comprensibles.

La empresa enfrentó críticas el año pasado después de aceptar pagar 1.500 millones de dólares para resolver una demanda colectiva presentada por un grupo de autores que afirmaban que la empresa utilizaba versiones pirateadas de su trabajo para entrenar modelos de inteligencia artificial.

La historia continúa debajo del anuncio.

La renuncia de Sharma se produce la misma semana en que la investigadora de OpenAI Zoë Hitzig anunció su renuncia. Artículo en el New York TimesExpresó su preocupación por la estrategia publicitaria de la empresa, incluida la colocación de anuncios en ChatGPT.

“Alguna vez creí que podía ayudar a las personas que desarrollaban IA a evitar los problemas que crearía. Esta semana confirmó mi comprensión gradual de que OpenAI había dejado de hacer las preguntas en las que participé para ayudar a responder”, escribió.

“La gente le cuenta a los chatbots sus temores médicos, sus problemas de relación, sus creencias sobre Dios y el más allá. Los anuncios creados a partir de este archivo crean el potencial de manipular a los usuarios de maneras que no tenemos las herramientas para comprender, y mucho menos prevenir”.


Anthropic y OpenAI entraron recientemente en una disputa pública después de Anthropic Lanzamiento del comercial del Super Bowl Critica la decisión de OpenAI de publicar anuncios en ChatGPT.

En 2024, el director ejecutivo de OpenAI, Sam Altman, dijo que no era partidario del uso de anuncios y que los utilizaría como “último recurso”.

La semana pasada, respondió a la afirmación del anuncio de que la ubicación del anuncio es engañosa en una publicación extensa en la que critica a Anthropic.

“Supongo que es propio de la marca que Anthropic use un anuncio engañoso para criticar anuncios engañosos teóricos que no son reales, pero el anuncio del Super Bowl no está donde esperaba que estuviera”, escribió, y agregó que continuaría permitiendo el acceso gratuito, lo que, según él, creó una “agencia” para los anuncios.

La historia continúa debajo del anuncio.

Los empleados de empresas rivales (Hitzig y Sharma) han expresado serias preocupaciones por la erosión de los principios rectores establecidos para proteger la integridad de la IA y proteger a sus usuarios de la manipulación.

Hitzig escribió que ya podría estar ocurriendo en la empresa una posible “erosión de los propios principios de OpenAI para maximizar el compromiso”.

Sharma dijo que estaba preocupado por la capacidad de la IA de “distorsionar a la humanidad”.

© 2026 Global News, una división de Corus Entertainment Inc.



Fuente