Interviste & Opinioni

AI Act: il bicchiere è mezzo pieno

Markus Krienke

Ieri il Parlamento Europeo ha varato – con 523 voti favorevoli, 46 contrari e 49 astensioni – la prima legislazione mondiale sull’intelligenza artificiale. Poco prima delle elezioni a del prossimo giugno, si è dunque riusciti a concludere il progetto di legge più importante della recente legislatura. Mancano solo l’approvazione formale del Consiglio europeo e l’attuazione graduale per 24 mesi, fino al 2026. Ciò vuol dire che, per le aziende, il tempo a disposizione per gli adattamenti stringe.

L’IA Act è un successo dell’impegno dell’Unione Europea per i diritti umani, e nonostante i suoi limiti – come molti continuano a rilevare sin dall’8 dicembre, data dell’accordo tra Commissione, Consiglio e Parlamento circa tale legge – si può senz’altro ritenerlo una pietra miliare. Con esso, l’UE ha dimostrato di esercitare la sua funzione “regolatrice” non per limitare gli Stati membri, ma, al contrario, per realizzare, a favore dei cittadini, dei compiti legislativi impossibili da affrontare a livello nazionale. A differenza di altri regolamenti mondiali esistenti, quello europeo, che ormai è legge, prevede dunque delle sanzioni contro le imprese che non lo rispettano, fino a 35 milioni di Euro, oppure il 7% dei ricavi annuali.

Entrando nel modo come la legge affronta la sfida dell’IA, essa suddivide le varie tecnologie in quattro livelli di rischio: da inaccettabile e alto fino a limitato e minimo. Con la prima categoria si proibiscono i sistemi di social scoring, che prevedono punti bonus per comportamenti socialmente desiderati e malus per quelli indesiderati: sono adoperati, ad esempio, dalla Cina dove si vincola, sulla base del punteggio, l’accesso dei cittadini a servizi pubblici come, ad esempio, allo studio universitario. Ne fanno parte anche il riconoscimento di emozioni sul posto di lavoro per giudicare il rendimento dei dipendenti, ad esempio tramite l’analisi delle voci dei lavoratori nei call center, oppure l’utilizzo di IA per la selezione aziendale di candidati. Infine, si proibisce il riconoscimento facciale, cioè il rilevamento di dati biometrici – tranne nei casi in cui un giudice lo autorizza a fini investigativi –, in quanto «i sistemi di IA che identificano o inferiscono emozioni o intenzioni di persone fisiche sulla base dei loro dati biometrici possono portare a risultati discriminatori e possono essere invasivi dei diritti e delle libertà delle persone interessate» (n. 44). «Inaccettabili» sono dunque quelle tecnologie che infrangono i valori base dell’UE.

Regolamentando le tecnologie di «rischio alto» si tende poi a proteggere la salute, la sicurezza, l’ambiente e la democrazia, ad esempio nel caso di macchine a guida autonoma o processi automatici di concessione di credito. Una banca, ad esempio, sarà obbligata a fornire le ragioni che hanno motivato un rifiuto di credito.

ChatGPT farebbe invece parte della terza categoria – sistemi di IA che «non influenzano materialmente il processo decisionale né pregiudicano tali interessi in modo sostanziale» (n. 53) –, che richiede avvisi agli utilizzatori, garanzie di trasparenza e altre regole. Italia, Francia e Germania avrebbero richiesto, invece, da tali modelli base (foundation models), soltanto un’auto-obbligazione. Infine, l’ultima categoria, che comprende senz’altro la maggior parte delle tecnologie IA, non prevede nessun tipo di regolamentazione.

Voci critiche che vedono il bicchiere mezzo vuoto lamentano però che le numerose eccezioni, come, ad esempio, quelle circa il riconoscimento facciale, legittimerebbero di fatto un’erosione di valori e diritti fondamentali dell’Unione. Gli Stati membri potrebbero dunque avvalersi, alla fine, di grandi dimensioni del rilevamento di dati biometrici. Amnesty International interpreta addirittura questo buco legislativo come un «invito» all’intensificazione della sorveglianza. Tali eccezioni valgono anche per il controllo dei confini esterni dell’UE. Ciò è stato considerato come un esagerato prevalere della logica degli Stati a discapito dell’Unione e dei suoi valori. Fa però anche parte della natura dell’UE il fatto che in su alcuni punti gli Stati membri riescano ad imporsi, per cui non bisogna lamentare la coesistenza di entrambe le logiche – dell’Unione e degli Stati – nel testo finale. Per non parlare della battaglia delle lobby, che, intorno a questo processo legislativo, è stata condotta specialmente dalle aziende del Big Tech.

Il regolamento avrà senz’altro i suoi limiti e “buchi”, ma è espressione della consapevolezza dell’UE come mercato libero più grande del mondo, della sua responsabilità per i propri cittadini e per la promozione di uno sviluppo e un utilizzo etico e responsabile delle nuove tecnologie. Politici, ma anche aziende e rappresentanti dell’industria, giudicano pertanto l’AI Act positivamente, mentre le voci critiche provengono da organizzazioni di diritti umani o della tutela dei consumatori, che temono la legittimazione della sorveglianza. Qualcuno critica addirittura il fatto stesso che l’UE abbia deciso di regolare questo ambito delle nuove tecnologie, in quanto ciò limiterebbe lo sviluppo e quindi la competitività dell’Europa, nonché la sua attrattività per le aziende del settore. Certamente, con questo documento ancora nulla è stato fatto per incentivare lo sviluppo e l’utilizzo di queste nuove tecnologie, specialmente anche nell’ambito aziendale dove è di suprema importanza mantenere il passo con la concorrenza internazionale. Pertanto, questo AI Act rimarrebbe zoppo se l’UE non facesse seguire dei programmi mirati per l’incentivazione della tecnologia e cultura digitale.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

CAPTCHA ImageChange Image

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Traduci