Publicado el 07/05/2026 | Autor: 3dpoder

UE aplaza hasta 2027 las normas de IA para sistemas de riesgo

La Unión Europea ha decidido retrasar hasta diciembre de 2027 la aplicación de las obligaciones para sistemas de inteligencia artificial considerados de alto riesgo. Esta medida, adoptada tras las presiones de varios sectores industriales, busca dar más tiempo a las empresas para adaptarse a la nueva regulación. La prórroga afecta a ámbitos como el empleo, la sanidad o la banca.

Un reloj de arena digital sobre una mesa, con la arena cayendo hacia 2027 junto a un documento titulado 'Ley de IA'.

Implicaciones técnicas del aplazamiento en el desarrollo de IA 🛠️

El retraso permite a los desarrolladores ajustar sus modelos sin la presión de un calendario inmediato. Esto incluye la implementación de mecanismos de transparencia, evaluación de sesgos y trazabilidad de datos. Las empresas podrán ahora certificar sus sistemas bajo el nuevo marco sin prisas, aunque deberán cumplir con los requisitos de documentación y supervisión humana. La prórroga no exime de la prohibición de usos prohibidos desde febrero de 2025.

La IA de alto riesgo espera sentada en el banquillo 🎢

Al final, la UE ha optado por el clásico mañana lo hacemos. Mientras tanto, los algoritmos de contratación y las máquinas de diagnóstico seguirán funcionando sin etiqueta de peligrosidad. Es como si te subieras a una montaña rusa y el operador te dijera: tranquilo, el cinturón de seguridad lo revisamos en 2027. Todo bajo control, o al menos hasta entonces.