Técnica

La Ley de AI de la UE tiene como objetivo crear un campo de juego nivelado para la innovación de IA: esto es lo que es

La Ley de Inteligencia Artificial de la Unión Europea, conocido como la Ley de AI de la UEha sido descrito por la Comisión Europea como “la primera ley de IA integral del mundo”. Después de años en la creación, se está convirtiendo progresivamente en parte de la realidad para los 450 millones de personas que viven en los 27 países que comprenden la UE.

Sin embargo, la Ley de AI de la UE es más que un asunto europeo. Se aplica a las empresas tanto locales como extranjeras, y puede afectar tanto a los proveedores como a los implementadores de sistemas de inteligencia artificial; La Comisión Europea cita ejemplos de cómo se aplicaría a un desarrollador de una herramienta de detección de CV y a un banco que compra esa herramienta. Ahora todas estas partes tienen un marco legal que prepara el escenario para su uso de IA.

¿Por qué existe el acto de la UE AI?

Como de costumbre con la legislación de la UE, la Ley de AI de la UE existe para asegurarse de que haya un marco legal uniforme que se aplique a un determinado tema en los países de la UE, el tema esta vez es IA. Ahora que la regulación está en su lugar, debe “garantizar la libre circulación, transfronteriza, de bienes y servicios basados en IA” sin las restricciones locales divergentes.

Con una regulación oportuna, la UE busca crear un campo de juego nivelado en toda la región y Foster Trustque también podría crear oportunidades para las empresas emergentes. Sin embargo, el marco común que ha adoptado no es exactamente permisivo: a pesar de la etapa relativamente temprana de la adopción generalizada de IA en la mayoría de los sectores, la Ley de AI de la UE establece una barra alta para lo que la IA debería y no debería hacer por la sociedad de manera más amplia.

¿Cuál es el propósito de la Ley de AI de la UE?

Según los legisladores europeos, el objetivo principal del marco es “promover la absorción de IA centrada en humanos y confiable al tiempo que garantiza un alto nivel de protección de la salud, seguridad, derechos fundamentales como consagrados en la Carta de la Carta de los Derechos Fundamentales de la Unión Europea, incluida la Democracia, el Regla de la Derecho y

Sí, eso es bastante bocado, pero vale la pena analizar con cuidado. Primero, porque mucho dependerá de cómo defina la IA “centrada en humanos” y “confiable”. Y segundo, porque da un buen sentido del precario equilibrio para mantener entre los objetivos divergentes: innovación versus prevención de daños, así como la absorción de AI versus protección del medio ambiente. Como de costumbre con la legislación de la UE, nuevamente, el diablo estará en los detalles.

¿Cómo la Ley de AI de la UE equilibra sus diferentes objetivos?

Para equilibrar la prevención de daños contra los beneficios potenciales de la IA, la Ley de AI de la UE adoptó un enfoque basado en el riesgo: Prohibir un puñado de casos de uso de “riesgo inaceptable”; Marcar un conjunto de “alto riesgo” utiliza una regulación estrecha; y aplicar obligaciones más ligeras a escenarios de “riesgo limitado”.

Evento de TechCrunch

San Francisco
|
27-29 de octubre de 2025

¿Ha entrado en vigencia la Ley de AI de la UE?

Si y no. El lanzamiento de la Ley de AI de la UE comenzó el 1 de agosto de 2024, pero solo entrará en vigor a través de una serie de plazos de cumplimiento escalonados. En la mayoría de los casos, también se aplicará antes a los nuevos participantes que a las empresas que ya ofrecen productos y servicios de IA en la UE.

La primera fecha límite entró en vigencia el 2 de febrero de 2025 y se centró en hacer cumplir las prohibiciones en un pequeño número de usos prohibidos de la IA, como el raspado no dirigido de Internet o CCTV para que las imágenes faciales acumulen o expandan las bases de datos. Muchos otros seguirán, pero a menos que el horario cambie, la mayoría de las disposiciones se aplicarán a mediados de 2026.

¿Qué cambió el 2 de agosto de 2025?

Desde el 2 de agosto de 2025, la Ley de AI de la UE se aplica a los “modelos de IA de uso general con riesgo sistémico”.

Los modelos GPAI (IA de uso general) son modelos de IA entrenados con una gran cantidad de datos, y eso puede usarse para una amplia gama de tareas. Ahí es donde entra el elemento de riesgo. Según la Ley de AI de la UE, los modelos GPAI pueden venir con riesgos sistémicos – “Por ejemplo, a través de la disminución de las barreras para el desarrollo de armas químicas o biológicas, o problemas de control no intencionados sobre [GPAI] modelos “.

Antes de la fecha límite, publicó la UE pautas Para proveedores de modelos GPAI, que incluyen empresas europeas y jugadores no europeos como Anthrope, Google, Meta y OpenAI. Pero dado que estas compañías ya tienen modelos en el mercado, también tendrán hasta el 2 de agosto de 2027, a diferencia de los nuevos participantes.

¿La Ley de la UE AI tiene dientes?

La Ley de AI de la UE viene con sanciones de que los legisladores querían ser simultáneamente “efectivos, proporcionados y disuasivos”, incluso para grandes jugadores globales.

Los detalles serán establecidos por los países de la UE, pero la regulación establece el espíritu general, que las sanciones variarán según el nivel de riesgo considerado, así como los umbrales para cada nivel. La infracción de las aplicaciones de IA prohibidas conduce a la mayor penalización de “hasta 35 millones de euros o el 7% del total de la facturación anual mundial del año financiero anterior (lo que sea más alto)”.

La Comisión Europea también puede infligir multas de hasta € 15 millones o 3% de la facturación anual de los proveedores de modelos GPAI.

¿Qué tan rápido pretenden cumplir los jugadores existentes?

El Código de práctica GPAI voluntarioincluidos compromisos como no capacitar modelos de contenido pirateado, es un buen indicador de cómo las empresas pueden interactuar con la ley marco hasta que sean obligadas a hacerlo.

En julio de 2025, meta anunció que no firmaría el Código de práctica GPAI voluntario destinado a ayudar a tales proveedores a cumplir con la Ley de AI de la UE. Sin embargo, Google poco después confirmó que firmaríaa pesar de las reservas.

Firmantes Hasta ahora, incluye Aleph Alpha, Amazon, Anthrope, Cohere, Google, IBM, Microsoft, Mistral AI y OpenAI, entre otros. Pero como hemos visto con el ejemplo de Google, la firma no es igual a un respaldo completo.

¿Por qué (algunas) compañías tecnológicas han estado luchando contra estas reglas?

Mientras se declara en un blog Que Google firmara el Código Voluntario de Práctica GPAI, su presidente de Asuntos Globales, Kent Walker, todavía tenía reservas. “Seguimos preocupado de que la Ley de IA y el Código se arriesgan a desacelerar el desarrollo y el despliegue de IA de Europa”, escribió.

Meta era más radical, con su principal oficial de asuntos mundiales, Joel Kaplan, afirmando en un correo en LinkedIn que “Europa se está dirigiendo por el camino equivocado en la IA”. Llamando a la implementación de la Ley de AI de la UE “extralimitando”, declaró que el Código de Práctica “presenta una serie de incertidumbres legales para los desarrolladores de modelos, así como medidas que van mucho más allá del alcance de la Ley de AI”.

Las empresas europeas también han expresado su preocupación. Arthur Mensch, el CEO del campeón francés de IA Mistral AI, era parte de un grupo de CEOs europeos que firmado una carta abierta en julio de 2025 instando a Bruselas a “Detén el reloj” Durante dos años antes de que las obligaciones clave de la Ley de AI de la UE entraran en vigor.

¿Cambiará el horario?

A principios de julio de 2025, la Unión Europea respondió negativamente a los esfuerzos de cabildeo pidiendo una pausa, diciendo que aún se apegaría a su cronograma para implementar la Ley de AI de la UE. Seguía adelante con la fecha límite del 2 de agosto de 2025 según lo planeado, y actualizaremos esta historia si algo cambia.

Fuente

Related Articles

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Back to top button