UE rinvia al 2027 le norme sull'IA per i sistemi a rischio

07 May 2026 Pubblicato | Tradotto dallo spagnolo

L'Unione Europea ha deciso di posticipare fino a dicembre 2027 l'applicazione degli obblighi per i sistemi di intelligenza artificiale considerati ad alto rischio. Questa misura, adottata dopo le pressioni di diversi settori industriali, mira a dare più tempo alle aziende per adattarsi alla nuova regolamentazione. La proroga riguarda ambiti come il lavoro, la sanità o la banca.

Una clessidra digitale su un tavolo, con la sabbia che cade verso il 2027 accanto a un documento intitolato 'Legge sull'IA'.

Implicazioni tecniche del rinvio nello sviluppo dell'IA 🛠️

Il ritardo consente agli sviluppatori di adattare i loro modelli senza la pressione di una scadenza immediata. Ciò include l'implementazione di meccanismi di trasparenza, valutazione dei bias e tracciabilità dei dati. Le aziende potranno ora certificare i loro sistemi secondo il nuovo quadro senza fretta, anche se dovranno rispettare i requisiti di documentazione e supervisione umana. La proroga non esenta dal divieto di usi proibiti a partire da febbraio 2025.

L'IA ad alto rischio aspetta seduta in panchina 🎢

Alla fine, l'UE ha optato per il classico lo facciamo domani. Nel frattempo, gli algoritmi di assunzione e le macchine diagnostiche continueranno a funzionare senza etichetta di pericolosità. È come se salissi su un ottovolante e l'operatore ti dicesse: tranquillo, la cintura di sicurezza la controlliamo nel 2027. Tutto sotto controllo, o almeno fino ad allora.