A Bruxelles l’aria è densa come nei giorni di voto. Nei corridoi del Berlaymont si parla a bassa voce: qualcuno dice “semplificazione”, altri “resa”. Il dossier AI Act torna sul tavolo con una proposta di pausa: un anno di respiro per chi sviluppa IA ad alto rischio, tempo per “adattarsi senza bloccare il mercato”. In realtà, è la prima incrinatura nel muro normativo europeo.
AI Act, l’Europa frena per non restare indietro
L’AI Act era nato come la risposta dell’Europa a Silicon Valley: un quadro di regole pensato per disciplinare algoritmi e modelli generativi con il rigore di una normativa industriale. Ora la Commissione propone di concedere un grace period di dodici mesi ai produttori di intelligenza artificiale “ad alto rischio”, posticipando le sanzioni fino al 2027. La motivazione ufficiale è pragmatica: “evitare di ostacolare l’innovazione”. In sottofondo, però, c’è la paura di perdere competitività rispetto a Stati Uniti e soprattutto Cina.
La scelta arriva in un momento politico delicato. Le pressioni di Big Tech e della nuova amministrazione americana sono forti. L’Unione, che aveva promesso il “gold standard” etico dell’IA, rischia di diventare un campo di compromessi. Bruxelles parla di semplificazione, ma l’effetto è quello di un allentamento dei freni proprio quando la corsa mondiale all’intelligenza artificiale accelera.
Il prezzo della prudenza
Il paradosso è evidente: l’Europa teme di essere troppo lenta e decide di rallentare ancora. Nella bozza circolata a novembre, la Commissione prevede che le aziende che già operano sul mercato possano “adattare le proprie pratiche senza interrompere il servizio”. In cambio, l’applicazione delle multe per violazione delle norme di trasparenza verrebbe rinviata di un anno. È un compromesso che suona come un favore implicito ai grandi player globali, da Meta a Google, pronti a festeggiare un 2026 più leggero.
Dietro le formule burocratiche (“pacchetto di semplificazione”, “armonizzazione dei processi”) si intravede il volto di un’Europa stanca della sua stessa rigidità. Dopo anni di negoziati, tavoli tecnici e proclami etici, la prima legge al mondo sull’IA rischia di trasformarsi in un manuale di eccezioni. E forse è questo il vero segnale che il continente, nel tentativo di governare la tecnologia, finisce per subirne il ritmo.
Un algoritmo di diplomazia
La Commissione non vuole ammetterlo, ma il timore di uno scontro con Washington è reale. Dopo l’accordo commerciale provvisorio di agosto, un inasprimento normativo avrebbe potuto riaccendere tensioni su dazi e forniture di tecnologia. Meglio dunque un rinvio tecnico, che politicamente vale una tregua. Intanto le aziende europee chiedono chiarezza: i costi di compliance restano alti, le linee guida ancora vaghe, e l’AI Office — il nuovo organo di coordinamento — deve ancora dimostrare la sua efficacia.
Nel frattempo, il dibattito si sposta sul piano culturale: quanto controllo è sostenibile senza bloccare la ricerca? L’AI Act nasce per difendere i diritti dei cittadini, ma rischia di penalizzare le startup locali più dei colossi globali. È un equilibrio fragile, che riflette un’Europa spesso intrappolata tra la tutela dei valori e la paura di perdere terreno economico.
AI Act, il silenzio delle macchine
Big Tech osserva, paziente. Un rinvio di un anno significa margine per consolidare posizioni di mercato, ottimizzare modelli e costruire lobbying più efficace. Ogni mese in più senza sanzioni vale milioni in ricerca e in vantaggio competitivo. Le stesse aziende che Bruxelles voleva imbrigliare ora trovano spazio per manovrare con maggiore libertà: una vittoria silenziosa, travestita da compromesso tecnico.
Forse è questo il vero nodo: l’AI Act era nato per domare la velocità. Ora sembra cedere al suo fascino. In fondo, anche un algoritmo obbedisce alle regole finché nessuno le cambia.
L’Europa, nel tentativo di regolare il futuro, scopre che anche la burocrazia può essere una forma di intelligenza artificiale: impara dagli errori, ma sempre un passo dopo chi li commette.