Magazine

AI Act: tutto quello che c’è da sapere

25/10/2023
AI Act: tutto quello che c’è da sapere
PMIPrivatiProfessionisti
L'Unione europea (UE) sta lavorando a un nuovo quadro giuridico che mira a rafforzare in modo significativo la legislazione sullo sviluppo e sull'utilizzo dell'intelligenza artificiale. La proposta di legge, denominata AI Act, si concentra principalmente sulle norme relative alla qualità dei dati, alla trasparenza, alla supervisione umana e alla responsabilità di coloro che ne fanno uso. Inoltre, punta ad affrontare questioni etiche e difficoltà di implementazione in vari settori, dalla sanità all'istruzione, dalla finanza all'energia.
 
"L'AI esiste da decenni, ma ha raggiunto nuove capacità alimentate dalla potenza di calcolo", ha dichiarato Thierry Breton, commissario europeo per il mercato interno, in una dichiarazione rilasciata nel 2021, quando è stata proposta la legge per la prima volta dalla Commissione Europea. Una cosiddetta posizione di orientamento generale sulla legislazione è stata adottata dal Consiglio Europeo alla fine del 2022 e, nel giugno di quest’anno, sono stati varati diversi emendamenti.
 
Attualmente, il progetto di legge è una posizione negoziale tra gli Stati membri e la Commissione europea, in un processo verso la definitiva approvazione che potrà, facilmente, essere anche molto lungo.

Che cos'è l’AI Act

La legge sull'intelligenza artificiale - si legge nel testo del provvedimento - mira a "rafforzare la posizione dell'Europa come polo globale di eccellenza nell'IA, dal laboratorio al mercato, a garantire che, in Europa, rispetti i nostri valori e le nostre regole, e a sfruttarne il potenziale per uso industriale".
 
La pietra angolare della legge sull'IA è un sistema di classificazione che determini il livello di rischio che una tecnologia basata sull’intelligenza artificiale potrebbe rappresentare per la salute, la sicurezza o i diritti fondamentali di una persona. Il quadro di riferimento prevede quattro livelli di rischio: inaccettabile, elevato, limitato e minimo.
 
I sistemi con rischio limitato e minimo, come i filtri antispam o i videogiochi, possono essere utilizzati con pochi requisiti, a parte gli obblighi di trasparenza. Quelli a rischio inaccettabile, come i social scoring governativi e i sistemi di identificazione biometrica in tempo reale negli spazi pubblici, sono vietati con poche eccezioni.
 
I sistemi di IA ad alto rischio sono consentiti, ma gli sviluppatori e gli utenti devono attenersi a normative che richiedono test rigorosi, un'adeguata documentazione sulla qualità dei dati e un quadro di responsabilità che specifichi la supervisione umana. Le intelligenze artificiali considerate ad alto rischio includono veicoli a guida autonoma, dispositivi medici e macchinari per infrastrutture critiche, per citarne alcuni.
 
La proposta di legge delinea anche le norme relative alle cosiddette IA generiche, ovvero sistemi che possono essere utilizzati per scopi diversi con vari gradi di rischio. Tali tecnologie includono, per esempio, sistemi di IA generativa con LLM (Large Language Model) come ChatGPT.

I timori del mondo dell’industria

Lo scorso giugno sono state concordate delle modifiche alla bozza di legge sull'intelligenza artificiale, che ora includono il divieto di utilizzare la tecnologia IA nella sorveglianza biometrica e l'obbligo per i sistemi di IA generativa come ChatGPT di divulgare i contenuti generati.
 
Ma in una lettera aperta firmata da oltre 150 dirigenti, le aziende europee dei più disparati comparti merceologici, hanno messo in guardia dall'impatto che la proposta di legge potrebbe avere sulle imprese.
 
"Secondo la nostra valutazione, la proposta di legge metterebbe a repentaglio la competitività e la sovranità tecnologica dell'Europa senza affrontare in modo efficace le sfide che ci troviamo e ci troveremo ad affrontare", si legge nella lettera inviata alla Commissione Europea e visionata dal Financial Times.

I prossimi sviluppi della legge

L’AI Act prevede sanzioni molto severe in caso di non rispetto o di non conformità. Per le aziende, le multe possono arrivare anche fino a 30 milioni di euro o al 6% del fatturato globale. Anche la presentazione di documentazione falsa o fuorviante alle autorità di regolamentazione può comportare multe.
 
"Con queste regole fondamentali, l'UE sta guidando lo sviluppo di nuove norme globali per garantire che ci si possa fidare dell'IA", ha aggiunto in un comunicato Margrethe Vestager, Commissario europeo per l'era digitale e la concorrenza. "A prova di futuro e di innovazione, le nostre norme interverranno laddove è strettamente necessario: quando sono in gioco la sicurezza e i diritti fondamentali dei cittadini dell'Unione Europea".
 
La proposta di legge punta anche a istituire un Consiglio Europeo per l'Intelligenza Artificiale, che supervisionerà l'attuazione del regolamento e garantirà un'applicazione uniforme in tutto il territorio comunitario. L'organismo avrà anche il compito di emanare pareri e raccomandazioni sulle questioni che si presentano e di fornire indicazioni alle autorità nazionali. "Il consiglio dovrebbe riflettere i vari interessi dell'ecosistema dell'intelligenza artificiale ed essere composto da rappresentanti degli Stati membri", si legge nella proposta di legge.
 
Sullo sfondo del piano legislativo europeo si stagliano diversi interrogativi, pesanti e dirimenti. Tra questi spicca quello che riguarda la possibilità di normare sistemi che si basano su una tipologia di addestramento che si svolge facendo ricorso a enormi volumi di dati. Senza contare la possibilità di controllare, mediante regole valide soltanto in un determinato territorio geografico in uno scenario fatto di dati digitali che, di per sé, non hanno confini.