Regulación del comportamiento de la IA, no de la teoría de la IA

Las nuevas leyes, SB 243 y AB 489, comparten una suposición común: que los sistemas de IA encontrarán casos extremos. Los expertos y los formuladores de políticas ven problemas de funcionalidad en los que las conversaciones se desviarán y los usuarios llevarán cuestiones emocionales, médicas o de alto riesgo a contextos para los que el sistema no fue diseñado.

Las políticas estáticas escritas con meses de anticipación no cubrirán todos los escenarios. Entonces, en lugar de prohibir la IA conversacional, el enfoque de California es pragmático. Si un sistema de IA influye en las decisiones o crea relaciones emocionales con los usuarios, debe tener salvaguardias que permanezcan en la producción, no solo en la documentación. Y ésta es un área en la que muchas organizaciones están menos preparadas.

AB 489: Cuando la IA parece un médico

AB 489 se centra en un riesgo diferente: los sistemas de inteligencia artificial que implican conocimientos médicos sin tenerlos realmente. Muchos chatbots de salud y bienestar no afirman explícitamente ser médicos. En cambio, se basan en tonos, terminología o sugerencias de diseño que parecen clínicas y autorizadas. Para los usuarios, estas distinciones suelen ser invisibles o indescifrables.

A partir del 1 de enero, AB 489 prohíbe que los sistemas de inteligencia artificial utilicen títulos, lenguaje u otras representaciones que sugieran experiencia médica autorizada, a menos que dicha experiencia esté realmente involucrada.

Describir los resultados como “de grado médico” o “impulsados ​​por un médico” sin respaldo fáctico puede constituir una infracción. Incluso las señales más pequeñas que podrían inducir a error a los usuarios pueden considerarse infracciones, y la supervisión se extiende a las juntas de licencias profesionales. Para los equipos que crean IA orientada al paciente o adyacente a la atención médica, esto crea un desafío de ingeniería familiar: desarrollar tecnología que recorra una delgada línea entre ser informativa, útil y confiable. Y ahora, bajo AB 489, esa línea es importante.

DESCUBRIR: Estas son las cuatro tendencias de la tecnología de IA a tener en cuenta en 2026.

SB 243: Cuando un Chatbot se convierte en compañero

La SB 243, promulgada en octubre de 2025, apunta a lo que los legisladores llaman “IA complementaria”, o sistemas diseñados para involucrar a los usuarios a lo largo del tiempo en lugar de responder una única pregunta transaccional. Estos sistemas pueden parecer persistentes, receptivos y emocionalmente sintonizados. Con el tiempo, los usuarios pueden dejar de percibirlos como herramientas y empezar a tratarlos como una presencia. Este es precisamente el riesgo que la SB 243 intenta abordar.

La ley establece tres expectativas principales.

En primer lugar, la divulgación de la IA debe ser continua y no cosmética. Si una persona razonable pudiera creer que está interactuando con un ser humano, el sistema debería revelar claramente que se trata de IA, no sólo una vez, sino repetidamente durante conversaciones más largas. Para los menores, la ley va más allá y exige recordatorios frecuentes e incentivos para que tomen descansos, con el objetivo explícito de detener la inmersión antes de que se vuelva adictiva.

En segundo lugar, la ley supone que algunas conversaciones se volverán serias. Cuando los usuarios expresan pensamientos suicidas o intenciones de autolesionarse, se espera que los sistemas reconozcan este cambio e intervengan. Esto significa interrumpir patrones de conversación dañinos, desencadenar respuestas predefinidas y dirigir a los usuarios al soporte de crisis del mundo real. Estos protocolos deben documentarse, implementarse en la práctica e informarse mediante las divulgaciones requeridas.

En tercer lugar, la responsabilidad no termina con el lanzamiento. A partir de 2027, los operadores deberán comunicar con qué frecuencia se activan estas salvaguardias y cómo funcionan en la práctica. La SB 243 también introduce un derecho de acción privado, aumentando significativamente los riesgos de los sistemas que fallan bajo presión.

El mensaje de este gobierno es claro: las buenas intenciones no bastan si la IA dice algo equivocado en el momento equivocado.

Haga clic en el banner a continuación para registrarse Tecnología sanitariaboletín semanal.

Fuente