La ley de noticias de noticias de California que requiere revelaciones de seguridad de IA

La oficina de Newsom dijo que la ley, conocida como SB 53, llena un vacío dejado por el Congreso de los Estados Unidos, que hasta ahora no ha aprobado una amplia legislación de IA y proporciona un modelo para que los Estados Unidos lo sigan. [File]
| Crédito de la foto: AP
El gobernador de California, Gavin Newsom, firmó el lunes la ley estatal el lunes un requisito de que el desarrollador de ChatGPT OpenAI y otros grandes jugadores revelen cómo planean mitigar los posibles riesgos catastróficos de sus modelos de IA de vanguardia. California es el hogar de las principales compañías de IA, incluida Operai, el Alphabet’s Google, Meta Platforms, Nvidia y Anthrope, y con esta ley busca liderar la regulación de una industria crítica para su economía, dijo Newsom.
“California ha demostrado que podemos establecer regulaciones para proteger a nuestras comunidades y al mismo tiempo garantizar que la creciente industria de IA continúe prosperando”, dijo Newsom en un comunicado de prensa.
La oficina de Newsom dijo que la ley, conocida como SB 53, llena un vacío dejado por el Congreso de los Estados Unidos, que hasta ahora no ha aprobado una amplia legislación de IA y proporciona un modelo para que los Estados Unidos lo sigan.
Si se implementan los estándares federales, dijo Newsom, la legislatura estatal debería “garantizar la alineación con esos estándares, todo mientras se mantiene la barra alta establecida por SB 53”. El año pasado, Newsom vetó el primer intento de California de legislación de IA, que se había enfrentado a un feroz retroceso de la industria. El proyecto de ley habría requerido que las empresas que gastaran más de $ 100 millones en sus modelos de IA contraten a auditores de terceros anualmente para revisar las evaluaciones de riesgos y permitieron al estado imponer sanciones en los cientos de millones de dólares.
La nueva ley requiere que las empresas con más de $ 500 millones en ingresos evalúen el riesgo de que su tecnología de vanguardia pueda liberarse del control humano o ayudar al desarrollo de biowapons, y revelar esas evaluaciones al público. Permite multas de hasta $ 1 millón por violación.
Jack Clark, cofundador de la compañía de IA Anthrope, calificó la ley “un marco fuerte que equilibra la seguridad pública con innovación continua”. La industria aún espera un marco federal que reemplazara la ley de California, así como otras como la promulgada recientemente en Colorado y Nueva York. El año pasado, una oferta de algunos republicanos en el Congreso de los Estados Unidos para bloquear los estados de la regulación de la IA fue rechazada en el Senado 99-1.
“El mayor peligro de SB 53 es que establece un precedente para los estados, en lugar de para el gobierno federal, para tomar la iniciativa al gobernar el mercado nacional de IA, creando un mosaico de 50 regímenes de cumplimiento que las nuevas empresas no tienen los recursos para navegar”, dijo Collin McCune, jefe de asuntos gubernamentales en la empresa de capital de Valle de Silicon Andreessen Horowitz.
El representante estadounidense Jay Obernolte, un republicano de California, está trabajando en la legislación de IA que podría evitar algunas leyes estatales, dijo su oficina, aunque se negó a comentar más sobre la legislación pendiente. Algunos demócratas también están discutiendo cómo promulgar un estándar federal.
“No es si vamos a regular la IA, ¿quieres que 17 estados lo hagan o quieres que el Congreso lo haga?” El representante de los Estados Unidos, Ted Lieu, un demócrata de Los Ángeles, dijo en una audiencia reciente sobre la legislación de IA en la Cámara de Representantes de los Estados Unidos.
Publicado – 30 de septiembre de 2025 10:14 en IS