24 Aprile 2026

Sviluppo responsabile dell’Intelligenza Artificiale (IA), almeno in UE

L’intelligenza artificiale pone sfide specifiche, come la gestione della privacy, la responsabilità giuridica, l’affidabilità e i rischi di discriminazione. L’Europa possiede già leggi, regolamenti ed etica consolidati che potrebbero rappresentare solide basi di partenza


di Marco Camisani-Calzolari


Londra – Faccio parte della task force della Commissione Europea che sta lavorando sul Code of Practice della legge sull’intelligenza artificiale e quello che sta accadendo intorno all’AI Act è preoccupante. Dopo anni di lavoro per creare una regolamentazione che possa bilanciare innovazione e sicurezza, l’Europa sta subendo pressioni enormi per indebolire le regole che dovrebbero garantire uno sviluppo responsabile dell’IA.

Negli ultimi giorni, la Commissione Europea ha ritirato la proposta di direttiva sulla responsabilità dei danni causati dall’IA, insieme al progetto di legge sulla ePrivacy. La decisione è arrivata in un momento chiave, durante l’AI Action Summit di Parigi, dove da una parte la presidente Ursula von der Leyen ha annunciato un investimento di 200 miliardi di euro per spingere l’IA in Europa, mentre dall’altra si sono levate voci critiche contro la regolamentazione. Alcuni CEO, come Aiman Ezzat di Capgemini, hanno affermato che regole troppo rigide potrebbero penalizzare le aziende europee e favorire la concorrenza di Stati Uniti e Cina.

E proprio gli Stati Uniti e il Regno Unito hanno rifiutato di firmare un accordo proposto dall’UE per una regolamentazione comune dell’IA. Il messaggio è chiaro: mentre l’Europa cerca di stabilire regole per proteggere i cittadini, altri paesi preferiscono un approccio più lasso, lasciando alle aziende il pieno controllo dello sviluppo dell’IA.

Ma cedere su queste regole sarebbe un errore gravissimo. L’AI Act è un passo avanti necessario per evitare che l’intelligenza artificiale diventi un far west incontrollato. Senza regolamentazione, ci troviamo di fronte a rischi concreti: sistemi di sorveglianza invasivi, manipolazione dell’informazione, IA impiegata per discriminazione o pericolosi bias decisionali. Non si tratta di frenare l’innovazione, ma di assicurarsi che sia sicura, trasparente e accessibile a tutti.

Le pressioni delle Big Tech per rendere l’AI Act più morbido sono evidenti. Loro vogliono il minor numero possibile di restrizioni per poter sviluppare modelli sempre più potenti senza dover rendere conto a nessuno. Ma senza un quadro normativo solido, rischiamo di trovarci con un’IA che prende decisioni su lavoro, sanità, giustizia e sicurezza senza alcun controllo reale.

L’Europa ha l’opportunità di fare la differenza e di diventare un modello per la regolamentazione dell’intelligenza artificiale nel mondo. Se ora cede alle pressioni di chi vuole meno regole, si rischia di lasciare il controllo dell’IA a poche aziende private che rispondono solo ai loro azionisti. Il futuro dell’IA non può essere deciso solo da chi la sviluppa, ma deve essere costruito con regole chiare che tutelino i diritti di tutti.

Zagarolo inaugura la Casa della Comunità e l’Ospedale di Comunità

di Bruno Trinca Zagarolo 23 aprile 2026 – Un nuovo presidio sanitario, moderno e integrato, apre le porte ai cittadini di Zagarolo…

Continua a leggere ...

Latina sul podio mondiale: bronzo per l’Italia con Paniconi e  Solazzi

di Dina Tomezzoli Latina 23 aprile 2026 – Latina conquista il podio mondiale del surf casting grazie ai suoi atleti e, in particolare, al…

Continua a leggere ...

Inasprito lo scontro tra “Facciamo Centro” e l’Amministrazione Cascella

di Bruno Trinca Velletri 23 aprile 2026 – Si fa sempre più acceso il confronto tra il Comitato “Facciamo Centro” e l’amministrazione…

Continua a leggere ...

Festa della Mamma

Idee per un Regalo - 331.434.16.37