La bozza di un regolamento europeo sull’intelligenza artificiale lascia ancora molti interrogativi.
La proposta della Commissione era attesa e per prima tenta di fare ordine su un tema complesso e delicato.
Il 21 aprile la Commissione europea ha pubblicato la sua proposta di regolamento per l’intelligenza artificiale (Ai). Il testo era atteso da tempo visto che il tema dell’Ai è stato da subito preminente nel programma della presidente Ursula Von der Leyen e rappresenta il frutto di anni di lavoro preparatorio. Dopo la pubblicazione di un White Paper sulla Ai a febbraio dello scorso anno con cui si è aperto un periodo di consultazione, la Commissione ha ricevuto 1215 contributi esterni di cui 352 provenienti da aziende, 152 da università e accademici, 160 dalla società civile.
Tutti in generale si mostravano d’accordo sull’esigenza di un regolamento in questa materia. Ancora prima, la Commissione aveva dato l’incarico a 52 esperti internazionali di preparare un elenco di raccomandazioni etiche e di policy su come regolare l’intelligenza artificiale. Secondo il gruppo di esperti, “l’Ai affidabile dovrebbe essere: legale (rispettando tutte le leggi e i regolamenti applicabili), etica (rispettando i principi e i valori etici), robusta (sia da un punto di vista tecnico che tenendo conto del suo ambiente sociale)”.
La proposta di regolamento – Ai Act – si compone di 85 articoli più gli allegati, ha una portata enorme se non rivoluzionaria. Si tratta del primo testo legislativo che si propone di regolare una materia vastissima come l’Ai, una tecnologia che è entrata, sta entrando ed entrerà a far parte di una miriade di aspetti della nostra vita attraverso centinaia di servizi e strumenti d’uso quotidiano. A prescindere dal merito delle previsioni normative, lo sforzo della Commissione resta meritorio e sicuramente faciliterà un dialogo internazionale, con Stati Uniti e Cina in primis, su questo tema.
AI Act – Commissione Europea
La necessità di un quadro comune di regole
Indubbiamente la scelta di un regolamento, una norma egualmente applicabile in tutti gli Stati membri dell’Unione, era d’obbligo. Contrariamente ai critici, che pensano che l’Unione europea stia aggiungendo un ulteriore e inutile peso a quelle aziende che corrono per fornire innovazione in questo campo, la Commissione vuole fornire un set di regole condivise che facilitino da un lato la messa sul mercato europeo di nuovi prodotti e servizi e al contempo aumentino il grado di fiducia degli utenti nell’uso di questa tecnologia. È proprio la mancanza di fiducia che può danneggiare le imprese una volta che questi prodotti e servizi diventeranno di massa. Per startup e pmi poi sono previsti degli aiuti sia dal punto di vista organizzativo che economico.
Similmente all’impostazione del Gdpr, il regolamento europeo per la protezione dei dati, il nuovo set di regole non è prescrittivo nel senso stretto. Il principio alla base è infatti quello dell’accountability e del self assessment, responsabilizzazione e autovalutazione. Salvo in rari casi le aziende non devono passare da un vaglio esterno preventivo ma devono essere in grado di dimostrare che il modo in cui sono arrivati a sviluppare un certo tipo di Ai non lede i diritti fondamentali e non costituisce un rischio per le persone.
Livelli di rischio dell’AI – Commissione Europea
Quattro livelli di rischio
L’AI act prevede quattro livelli di rischio. Il rischio inaccettabile (articolo 5) riguarda i casi in cui l’Ai è considerata una minaccia alla sicurezza e ai diritti fondamentali delle persone. Tra gli esempi citati ci sono il riconoscimento biometrico da parte delle forze dell’ordine, il credito sociale, i sistemi che in modo subliminale modificano il comportamento di una persona tanto da provocare loro un danno fisico o psichico.
L’alto rischio contempla i casi in cui l’Ai è usata per infrastrutture critiche come i trasporti; l’accesso all’istruzione o ad un corso professionale; componenti di sicurezza dei prodotti (per esempio l’applicazione dell’Ai nella chirurgia assistita da robot); l’occupazione e la gestione dei lavoratori (come software di selezione dei cv per le procedure di assunzione); servizi pubblici e privati essenziali; in usi che interferiscano con i diritti fondamentali; alle frontiere; in ambito giuridico.
In questo caso, prima di poter essere immessi sul mercato dovranno dimostrare di aver implementato “adeguati sistemi di valutazione e mitigazione del rischio; alta qualità dei set di dati che alimentano il sistema per minimizzare i rischi e gli esiti discriminatori; registrazione delle attività per garantire la tracciabilità dei risultati; documentazione dettagliata che fornisca tutte le informazioni necessarie sul sistema e sul suo scopo affinché le autorità possano valutarne la conformità; informazioni chiare e adeguate all’utente; misure appropriate di supervisione umana per minimizzare il rischio; alto livello di robustezza, sicurezza e accuratezza”.
Il rischio limitato prevede per il fornitore di Ai solamente obblighi specifici di trasparenza (articolo 52). Per esempio, nel caso di uso di chatbot, l’utente dovrebbe essere informato che non sta interagendo con un essere umano così come dovrebbe sapere quando sta vedendo un video generato con deepfake. Da ultimo il rischio minimo prevede invece il libero uso di applicazioni come i videogiochi abilitati dall’Ai o i filtri antispam.

Alcune garanzie
A vegliare su questo nuovo sistema ci sarà un nuovo board composto da un rappresentante di ogni autorità nazionale preposta, dal Garante europeo per la privacy e dalla Commissione. Il board faciliterà la cooperazione e lo scambio di idee e aiuterà la Commissione nella redazione di opinioni e linee guida, sulla falsa riga del Comitato europeo dei garanti della privacy. Le Autorità nazionali avranno poteri ispettivi e in casi specifici potranno anche avere accesso al codice sorgente dell’Ai, ovviamente garantendo il massimo riserbo. La Commissione ogni anno si appurerà che le autorità nazionali preposte abbiano le risorse umane e finanziarie necessarie per poter essere all’altezza del difficile compito assegnato. Tutte le applicazioni di Ai ad alto rischio saranno poi raccolte in un database tenuto dalla Commissione, che sarà pubblicamente accessibile ed avrà i riferimenti della società che le fornisce.
Le sanzioni
Sempre ricalcando il modello delle sanzioni del Gdpr, le sazioni prevedono diversi scaglioni a seconda del tipo di violazione e il loro ammontare può essere una cifra o una percentuale del fatturato globale. La sanzione massima prevista dall’articolo 71 è quella di 30 milioni di euro o del 6% del fatturato globale nei casi in cui non si siano rispettate le previsioni sull’uso proibito della Ai (articolo 5) o quando, nei casi che riguardano l’uso di Ai ad alto rischio, non siano soddisfatte le disposizioni sul modo in cui l’intelligenza artificiale è allenata, su come vengono scelti i dati usati per il training, la validazione e i test (articolo 10).
Negli altri casi di violazione la sanzione sarà di massimo 20 milioni o il 4% del fatturato o di 10 milioni o il 2% del fatturato quando li colpevole non avesse fornito le informazioni richieste alle autorità competenti. Nel comminare la sanzione le autorità dovranno tenere in considerazione la natura, la gravità e la durata della violazione, la grandezza e la quota di mercato dell’azienda, e se infine si tratti di una recidiva.
Non trova spazio in questa proposta invece la questione della responsabilità civile che, come annunciato dalla Commissione su Agenda Digitale, sarà oggetto di un testo diverso e separato che dovrebbe essere presentato all’inizio dell’anno prossimo. Si tratta di un altro fondamentale tassello nel percorso verso una trustworthy Ai, un’intelligenza artificiale che generi fiducia negli utenti.
A chi si applicheranno le norme
L’Ai Act si applicherà a chiunque metta sul mercato comune sistemi di intelligenza artificiale, anche quando il sistema è prodotto fuori dall’Unione ma il suo output è usato all’interno. Non si applicherà invece agli usi esclusivamente militari o alle organizzazioni internazionali e autorità pubbliche quando esista un accordo internazionale per la cooperazione in ambito giudiziario (articolo 2). Da ultimo si applicherà ai sistemi di Ai ad alto rischio che erano già sul mercato solo quando, dopo l’entrata in vigore della legge, i sistemi avranno subito un cambio significativo della loro progettazione o degli scopi perseguiti.
Sono previsti obblighi non solo per il fornitore ma anche per importatore e distributore. Questo comporta che questi soggetti dovranno essere in grado di comprendere appieno la documentazione che il produttore dovrà loro fornire prima di poter mettere il sistema di Ai sul mercato. Questa circostanza richiederà ovviamente risorse umane ed economiche adeguate.
I prossimi passi
Il testo sarà al centro del dibattito europeo per molto tempo, almeno due anni probabilmente, e una volta approvato il testo finale passeranno altri due anni prima che diventi operativo. Visti gli enormi interessi in gioco che toccano tutti i settori industriali ed economici, non solo le big tech, non sarà un confronto facile. Il fatto che poi stiamo parlando di una norma che andrà a regolare un qualcosa che per sua natura è in continua evoluzione rende la sfida ancora più difficile. In mezzo a tutto ciò, l’Italia, che pur un anno fa aveva pubblicato un suo piano per l’Ai, non ne ha adottato uno ufficiale da trasmettere alla Commissione.
Tratto da Tech & Law | Panetta & Associati @wired.it