4 minuti per la lettura
Bruxelles, 21 mag. (askanews) – Il Consiglio Ue ha approvato formalmente, oggi a Bruxelles, il nuovo regolamento comunitario sull’intelligenza artificiale (IA), la prima legge al mondo di questo genere, che mira a razionalizzare ed armonizzare le norme, dopo la forte accelerazione degli sviluppi tecnologi in questo settore.
Il regolamento Ue (“Artificial Intelligence Act”) segue un approccio basato sul rischio, con regole tanto più severe quanto più alto è il potenziale di danni alla società che possono essere causati dalle diverse applicazioni dell’IA società, più severe saranno le regole.
Accanto all’obiettivo di promuovere lo sviluppo e l’adozione di sistemi di IA sicuri e affidabili nel mercato unico da parte di attori sia pubblici che privati, e di stimolare gli investimenti e l’innovazione in quest’area, il regolamento mira a garantire che il rispetto dei diritti fondamentali dei cittadini dell’Ue non sia messo a rischio dall’uso di queste tecnologie.
L’adozione del regolamento sull’IA rappresenta una pietra miliare significativa per l’Unione europea. Il Consiglio Ue, in una nota, la definisce “una legge storica, la prima del suo genere al mondo”, che “affronta una sfida tecnologica globale e crea anche opportunità per le nostre società ed economie”. L’ambizione dell’Ue è quella di stabilire con queste norme uno standard globale per la regolamentazione dell’IA..
Il regolamento classifica diversi tipi di intelligenza artificiale in base al rischio. I sistemi di IA che presentano solo un rischio limitato saranno soggetti a obblighi di trasparenza molto leggeri, mentre i sistemi di IA definiti “ad alto rischio” saranno autorizzati, ma soggetti a una serie di requisiti e obblighi per ottenere l’accesso al mercato Ue.
Alcune applicazioni dell’IA come, ad esempio, la manipolazione cognitivo-comportamentale e il “punteggio sociale” (praticato ad esempio in Cina) saranno banditi dall’Ue perché il loro rischio è ritenuto inaccettabile. Il regolamento vieta inoltre l’uso dell’intelligenza artificiale per la “polizia predittiva”, basata sulla profilazione, così come i sistemi che utilizzano dati biometrici per classificare le persone in base a categorie specifiche come razza, religione od orientamento sessuale.
I modelli di intelligenza artificiale per scopi generali che non presentano rischi sistemici saranno soggetti ad alcuni requisiti limitati, ad esempio per quanto riguarda la trasparenza (con l’etichettatura obbligatoria, chiamata “water marking”, dei contenuti generati dall’IA), ma quelli con rischi sistemici dovranno rispettare regole più severe.
Saranno istituiti diversi nuovi organismi per garantire una corretta applicazione del regolamento: un Ufficio per l’IA all’interno della Commissione europea; un panel scientifico di supporto composto da esperti indipendenti; un Comitato per l’IA con rappresentanti degli Stati membri per consigliare e assistere la Commissione e i diversi paesi nell’applicazione coerente ed efficace delle nuove norme; un Forum consultivo per i gruppi d’interesse (gli “stakeholder”), che fornirà competenze tecniche al Comitato per l’IA e alla Commissione.
Sono previste delle sanzioni per le violazioni del regolamento sull’IA nei confronti delle aziende, che verranno calcolate in termini di percentuale del fatturato annuo globale della società incriminata nell’anno finanziario precedente, oppure in base a un importo predeterminato, a seconda di quale sia maggiore. Le Pmi e le start-up responsabili di violazioni del regolamento saranno soggette a sanzioni amministrative proporzionali.
Prima che un sistema di IA rispondente alla definizione “ad alto rischio” venga messo in atto da enti che forniscono servizi pubblici, sarà necessario valutarne l’impatto sui diritti fondamentali. I sistemi di IA ad alto rischio, così come gli enti pubblici utenti di un sistema di IA ad alto rischio, dovranno essere registrati in una specifica banca dati dell’Ue. Inoltre, le entità che applicano sistemi di riconoscimento delle emozioni dovranno informare le persone esposte a questi sistemi.
Il regolamento, infine, contiene un quadro giuridico relativo ai processi di apprendimento dell’IA, e prevede la possibilità di sperimentare, sviluppare, testare e convalidare in un ambiente controllato i sistemi di IA innovativi.
Il regolamento sarà pubblicato nei prossimi giorni sulla Gazzetta Ufficiale dell’Ue ed entrerà in vigore venti giorni dopo in tutti gli Stati membri. Le norme del regolamento avranno tempi di attuazione diversi a seconda delle diverse aree a cui si riferiscono: sei mesi per i divieti relativi alla protezione della privacy, dei dati personali e dei diritti delle persone; un anno per la parte relativa all’Intelligenza artificiale di tipo “fondativo” (come Chat Gpt); e due anni per tutto il resto. La Commissione europea dovrebbe cominciare a presentare le misure di esecuzione nove mesi dopo l’approvazione del regolamento.
COPYRIGHT
Il Quotidiano del Sud © - RIPRODUZIONE RISERVATA