AI Act: approvata la legge sull’intelligenza artificiale

intelligenza artificiale

AI Act: approvata la legge sull’intelligenza artificiale

Mercoledì 13 marzo 2024, il Parlamento Europeo ha approvato la legge sull’intelligenza artificiale (IA), che garantisce sicurezza e rispetto dei diritti fondamentali e promuove l’innovazione in questo ambito. I deputati hanno autorizzato il regolamento, frutto dell’accordo raggiunto con gli Stati membri nel dicembre 2023, con 523 voti favorevoli, 46 contrari e 49 astensioni. 

Perché è importante? Si tratta della prima normativa uniforme sulle tecnologie dell’intelligenza artificiale, ad eccezione dell’Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence firmato da Biden il 23 ottobre scorso. Questo nuovo regolamento, lungi dall’essere solo un passaggio formale, riveste un’importanza cruciale per l’Europa e i suoi cittadini, definendo linee guida chiare per l‘utilizzo etico e responsabile dell’IA.

 

Qual è lo scopo di questa legge? 

L’obiettivo primario di questa legge è quello di proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto rischio, promuovendo nel contempo l’innovazione e assicurando all’Europa un ruolo guida nel settore.

  • I sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, 
  • I sistemi di credito sociale
  • Le pratiche di polizia predittiva e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone.

Un aspetto cruciale è l’importanza attribuita all’intelligenza artificiale nel contesto contemporaneo. L’IA è diventata una forza trainante per l’innovazione e lo sviluppo in molti settori, dall’economia alla medicina, dall’istruzione alla sicurezza. Tuttavia, è anche evidente che l’IA può comportare rischi significativi, se non regolamentata adeguatamente

L’approvazione dell’AI act rappresenta un passo avanti per garantire che l’IA sia sviluppata e utilizzata in modo sicuro ed etico, rispettando i valori fondamentali e proteggendo i diritti dei cittadini.

Suddivisione in livelli di rischio e regolamentazione 

Il regolamento prevede una suddivisione dei sistemi di IA in base ai livelli di rischio. 

  • Sistemi vietati 

I sistemi vietati includono pratiche manipolative o subliminali che influenzano il comportamento delle persone, così come i sistemi di social scoring automatizzato e quelli di polizia predittiva basati esclusivamente sulla profilazione. Un punto particolarmente dibattuto riguarda l’identificazione biometrica in tempo reale, utilizzata per finalità connesse alla commissione di reati o per la prevenzione di attacchi terroristici.

  • Sistemi ad alto rischio

I sistemi ad alto rischio devono essere attentamente valutati e registrati prima di essere immessi sul mercato. Questi includono sistemi destinati a svolgere compiti procedurali limitati o a migliorare il risultato di attività umane precedenti, ma che non sostituiscono o influenzano la valutazione umana senza una revisione adeguata. Anche i fornitori di modelli di IA per finalità generali devono rispettare obblighi specifici, come la documentazione tecnica dettagliata e l’informazione trasparente agli utenti.

  • Sistemi a basso rischio

Per questi dispositivi sono previsti solo degli obblighi di trasparenza e di informazione: si tratta di sistemi come Chat GPT oppure software antispam. In  questi sistemi rientrano anche i deep fake, verrà imposto al sistema di informare gli utenti tramite l’art. 50 che stabilisce che le persone fisiche interessate devono “essere informate del fatto di stare interagendo con un sistema di IA, a meno che ciò non risulti evidente dal punto di vista di una persona fisica ragionevolmente informata, attenta e avveduta, tenendo conto delle circostanze e del contesto di utilizzo”.

Regolamentazione 

Le nuove norme pongono anche un’enfasi significativa sulla trasparenza e sull’etica nell’uso dell’intelligenza artificiale. I sistemi di IA per finalità generali e i modelli su cui si basano dovranno soddisfare determinati requisiti di trasparenza e rispettare le norme UE sul diritto d’autore durante le fasi di addestramento dei vari modelli. Inoltre, i modelli più potenti, che potrebbero comportare rischi sistemici, dovranno rispettare obblighi aggiuntivi, come effettuare valutazioni dei modelli e mitigare i rischi sistemici.

Inoltre, è fondamentale che i cittadini abbiano il diritto di presentare reclami sui sistemi di IA e di ricevere spiegazioni sulle decisioni basate su tali sistemi che incidono sui loro diritti. Il regolamento impone una valutazione dell’impatto sui diritti fondamentali prima dell’implementazione di sistemi di IA ad alto rischio, garantendo che l’utilizzo di queste tecnologie sia sempre in linea con i principi di rispetto, dignità e libertà dei cittadini.

Sperimentare come strumento verso l’innovazione 

Un altro aspetto importante messo in luce dall’AI Act è l’approccio progressivo verso l’innovazione e il supporto alle piccole e medie imprese (PMI). I paesi dell’UE dovranno istituire e rendere accessibili a livello nazionale spazi di sperimentazione normativa e meccanismi di prova in condizioni reali, consentendo alle PMI e alle start-up di sviluppare sistemi di IA innovativi e addestrarli prima di immetterli sul mercato. Questo sostegno all’innovazione è fondamentale per mantenere la competitività dell’Europa nel campo dell’IA e per stimolare la crescita economica e l’occupazione.

Le parole della Commissione

Il dibattito conclusivo ha evidenziato l’importanza storica di questa legge. Brando Benifei, correlatore della commissione per il mercato interno, ha sottolineatodopo due anni intensi di lavoro siamo finalmente riusciti ad approvare la prima legge vincolante al mondo sull’intelligenza artificiale, volta a ridurre i rischi e aumentare opportunità, combattere la discriminazione e portare trasparenza. Grazie al Parlamento europeo, le pratiche inaccettabili di Ia saranno proibite in Europa. Tuteliamo i diritti dei lavoratori e dei cittadini. Dovremo ora accompagnare le aziende a conformarsi alle regole prima che entrino in vigore. Siamo riusciti a mettere gli esseri umani e i valori europei al centro dello sviluppo dell’Ia“. 

Dragos Tudorache, correlatore della commissione per le libertà civili, ha sottolineato invece che l’UE ha collegato l’intelligenza artificiale ai valori fondamentali delle società europee, aprendo la strada a un nuovo modello di governance basato sulla tecnologia.

In conclusione, l’approvazione della legge sull’intelligenza artificiale rappresenta un passo significativo per l’Europa. Questa legge non è solo un importante strumento normativo, ma anche un chiaro segnale dell’impegno dell’UE nel garantire che l’IA sia sviluppata e utilizzata in modo sicuro, etico e responsabile. Ora, il compito principale sarà quello di accompagnare le aziende nel conformarsi alle regole stabilite e di trasformare questa legge dall’astratto alla realtà sul campo, assicurando che l’IA continui a essere un motore di innovazione e progresso, nel rispetto dei valori europei e dei diritti fondamentali dei cittadini.

 

Rimani sempre aggiornato, inizia a seguirci !

In questo articolo: