Europa: entrata in vigore la legge sull’intelligenza artificiale

Il primo di agosto è entrata in vigore la legge europea sull’intelligenza artificiale, primo regolamento globale sull’IA al mondo, approvata dal Parlamento Europeo il 13 marzo 2024 (vedi ‘PIU’Europei’ n.103 aprile 2024). 

La legge sull’IA mira a garantire l’affidabilità dell’IA sviluppata e utilizzata nell’UE sia e la protezione dei diritti fondamentali delle persone. 

Il regolamento vuole creare un mercato interno armonizzato per l’IA nell’UE, sostenendo l’adozione di questa tecnologia e favorendo una realtà aperta agli investimenti e all’innovazione.

Viene introdotta la definizione di IA basata sulla sicurezza dei prodotti e sul rischio nell’UE:

• Rischio minimo: rientrano in questa categoria la maggior parte dei sistemi di IA, come i sistemi di raccomandazione basati sull’IA e i filtri spam. Considerato il loro rischio minimo per i diritti e la sicurezza dei cittadini, questi sistemi non sono soggetti a obblighi ai sensi della legge sull’IA. Le imprese possono adottare volontariamente codici di condotta aggiuntivi.

• Rischio specifico per la trasparenza: i sistemi di IA come i chatbot devono comunicare chiaramente agli utenti che stanno interagendo con una macchina. Alcuni contenuti generati dall’IA, compresi i deep fake, devono essere etichettati come tali e gli utenti devono essere informati quando vengono utilizzati sistemi di categorizzazione biometrica o di riconoscimento delle emozioni. Ifornitori, inoltre, dovranno progettare sistemi affinché il contenuto sintetico di audio, video, testo e immagini abbia un formato leggibile meccanicamente e rilevabile come generato o manipolato artificialmente.

• Rischio elevato: i sistemi di IA considerati ad alto rischio dovranno rispettare requisiti rigorosi, tra cui i sistemi di attenuazione dei rischi, l’elevata qualità dei set di dati, la registrazione delle attività, la documentazione dettagliata, informazioni chiare per gli utenti, la sorveglianza umana e un elevato livello di robustezza, accuratezza e cibersicurezza. Gli spazi di sperimentazione normativa agevoleranno l’innovazione responsabile e lo sviluppo di sistemi di IA conformi. Tali sistemi di IA ad alto rischio comprendono, ad esempio, i sistemi di IA utilizzati per il reclutamento o per valutare se qualcuno ha diritto a ottenere un prestito o a gestire robot autonomi.

• Rischio inaccettabile: i sistemi di IA considerati una chiara minaccia per i diritti fondamentali delle persone saranno vietati.Sono compresi i sistemi o le applicazioni di IA che manipolano il comportamento umano per eludere la libera volontà degli utenti, come i giocattoli che utilizzano l’assistenza vocale che incoraggiano comportamenti pericolosi dei minori, i sistemi che consentono il “punteggio sociale” da parte di governi o imprese e alcune applicazioni di polizia predittiva. Inoltre, saranno vietati alcuni usi dei sistemi biometrici, ad esempio i sistemi di riconoscimento delle emozioni utilizzati sul luogo di lavoro e alcuni sistemi per classificare le persone o l’identificazione biometrica remota in tempo reale a fini di contrasto in spazi accessibili al pubblico (con limitate eccezioni).

A integrazione di tale sistema, la legge sull’IA introduce inoltre norme per i cosiddetti modelli di IA per finalità generali, che sono modelli di IA altamente capaci progettati per svolgere un’ampia gamma di compiti, come la generazione di testi di tipo umano. I modelli di IA per finalità generali sono sempre più utilizzati come componenti delle applicazioni di IA. La legge sull’IA garantirà la trasparenza lungo la catena del valore e affronterà i possibili rischi sistemici dei modelli più capaci.

Applicazione delle norme in materia di IA

Gli Stati membri, entro il 2 agosto 2025, dovranno designare le autorità nazionali competenti che svolgeranno attività di vigilanza del mercato e vigileranno sull’applicazione delle norme per i sistemi di IA. L’Ufficio per l’IA della Commissione sarà il principale organismo di attuazione della legge sull’IA a livello dell’UE ed il responsabile dell’applicazione delle norme per i modelli di IA per finalità generali.

Tre organi consultivi forniranno il loro sostegno nell’attuazione delle norme:

– il comitato europeo per l’intelligenza artificiale, che garantiràl’applicazione uniforme della legge sull’IA in tutti gli Stati membri dell’UE e sarà il principale organo per la cooperazione tra la Commissione e gli Stati membri;

– un gruppo scientifico di esperti indipendenti, che fornirà consulenza tecnica e contributi sull’applicazione delle norme e che potrà trasmettere segnalazioni all’Ufficio per l’IA sui rischi connessiai modelli di IA per finalità generali;

– un forum consultivo, composto da una serie differenziata di portatori di interessi, può fornire orientamenti all’Ufficio per l’IA.

Sono previste sanzioni per le imprese che non rispettano le norme.Le sanzioni pecuniarie potrebbero raggiungere il 7 % del fatturato annuo globale, per le violazioni di applicazioni di IA vietate, fino al 3 % per le violazioni di altri obblighi e fino al 1,5 % per la fornitura di informazioni inesatte.

Le prossime fasi: la maggior parte delle norme della legge sull’IA inizierà ad applicarsi il 2 agosto 2026. Ma i divieti dei sistemi di IA con un rischio inaccettabile si applicheranno dopo sei mesi, mentre le norme per i modelli di IA per finalità generali dopo 12 mesi.

La Commissione ha varato il ‘patto per l’IA’, volto a superare il periodo transitorio, che invita gli sviluppatori di IA ad adottare volontariamente, prima delle scadenze legali, gli obblighi fondamentali della legge sull’IA. 

La Commissione sta inoltre elaborando orientamenti per facilitare strumenti di coregolamentazione come norme e codici di condotta. Ha già prodotto un invito a manifestare interesse a partecipare all’elaborazione del primo codice di buone pratiche per finalità generali in materia di IA, nonché una consultazione multilaterale che consente ai portatori di interessi l’opportunità di esprimersi sul primo codice di buone pratiche ai sensi della legge sull’IA.

Foto di Kohji Asakawa da Pixabay

Scrivi

La tua email non sarà pubblicata

Per inserire il commento devi rispondere a questa domanda: *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.