Europa battistrada nelle regole per l'Intelligenza Artificiale

Lo scorso 14 giugno il Parlamento Europeo ha approvato una bozza di regolamento sull'Intelligenza Artificiale (AI Act), che entro la fine del 2023 diventerà norma comunitaria applicabile in tutta l'Unione. Il regolamento parte dall'adozione di una definizione circoscritta di Intelligenza Artificiale: un software sviluppato con una o più delle tecniche e degli approcci elencati, che può, per una determinata serie di obiettivi definiti dall’uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono. L’AI Act prosegue indicando quali siano le pratiche di AI vietate, in base ad una classificazione del rischio (inaccettabile, alto, basso o minimo), stabilita con riferimento fondanti dell’Unione. Di seguito il regolamento stabilisce stringenti obblighi di trasparenza a carico dei fornitori di questa tecnologia, con due obbiettivi essenziali: difendere il copyright e  consentire l'emersione di ogni tipo di uso improprio dei software e di manipolazione dei contenuti ( il cd deep fake). Infine, viene stabilita una direzione di marcia per il futuro, con uno schema normativo sull’innovazione, la previsione del monitoraggio da parte della Commissione e dei codici di condotta. Ultimo, e più significativo proposito, l'istituzione di un comitato europeo per l’intelligenza artificiale costituito da rappresentanti degli Stati membri e della Commissione, replica del già esistente sistema del European Data Protection Board coordinato con le Autorità indipendenti degli stati membri. Su questo, almeno a livello italiano, siamo a livello di sogno visto il ritardo nell'implementazione nel nostro sistema giuridico della normativa europea pre esistente.

Il testo è stato definito dal New York Times "una del le prime leggi importanti per regolamentare l'intelligenza artificiale, e un potenziale modello per i responsabili politici di tutto il mondo". Come noto negli Stati Uniti e in Cina sono in corso studi incrociati fra governi e produttori di software, che si concretizzano in veri e propri negoziati fra pubblico e privato per controllare una tecnologia che nei timori degli stessi ideatori potrebbe ribaltare l'economia di Internet. Ma se in Cina la questione è parte del più ampio problema del controllo di stato della produzione, negli Stati Uniti c'è un ritardo preoccupante. Proprio il il 15 giugno scorso al Senato è stato reintrodotto un disegno di legge bipartisan di riforma antitrust che torna sulla questione del potere dei giganti della tecnologia (American Innovation and Choice Online Act), che ha l'ambizione di impedire alle piattaforme tecnologiche dominanti di imporre agli utenti i propri prodotti e servizi. La debolezza politica di entrambi gli schieramenti al Congresso americano e la campagna di lobbying da parte dell'industria tecnologica, hanno fermato il provvedimento per quasi due anni. Nel frattempo la linea di confine della tecnologia è andata ben oltre, e non sono più le opzioni offerte dalle piattaforme, ma gli stessi contenuti a imbrigliare le possibilità di scelta da parte dei consumatori.

I sistemi di IA (chatbot) più noti, già testati anche dal mercato sono: ChatGPT sviluppato da Open AI, che è il modello di riferimento per il nuovo mondo dell'intelligenza artificiale. Bing, motore di ricerca di Microsoft, già partner di OpenAI, che ha reso già fruibile una appendice in grado di fare conversazioni di testo aperte su qualsiasi argomento. Bard, di Google, in fase di test presso un numero limitato di grandi utenti negli Stati Uniti e in Gran Bretagna, in grado di creare e-mail ma anche idee, e testi di ogni tipo. Erni (Enhanced Representation through Knowledge Integration), del gruppo cinese Baidu, i cui primi passi sono stati poco promettenti.

Su questo argomento, come ormai da vent'anni in materia di sviluppo digitale, sembra quasi impossibile per i governi stabilire delle normative adeguate in tempi coerenti con la vertiginosa capacità innovativa del mercato. L'efficacia della regolamentazione è stata regolarmente sorpassata dal progresso tecnologico, ma la bozza europea, secondo, molti specialisti potrebbe diventare un punto di riferimento importante, grazie alla prospettiva che lancia sul futuro, ed alle preoccupazioni che gli stessi produttori di tecnologia hanno espresso circa la loro capacità di auto controllarsi.

Particolarmente interessante nella bozza europea l'approccio basato sul rischio: sotto attenzione non solo le metodologie informatiche, primo fra tutti l'uso del riconoscimento facciale e dei dati biometrici, ma anche gli ambiti di utilizzo, come quello delle infrastrutture critiche (acqua o energia), l'accesso ai servizi pubblici e più in generale l'interazione dei cittadini con i diversi livelli di governo. La normativa cui hanno guardato i legislatori europei è quella farmaceutica, nella quale il controllo comune del processo di approvazione dei farmaci ha conosciuto una significativa esperienza nel triennio del Covid. La necessità della collaborazione globale fra stati, sia pure nella diversità dei sistemi politici e giuridici, è l'aspetto comune fra la risposta planetaria alla pandemia che abbiamo tutti vissuto, e la nuova sfida teconologica dei prossimi anni.

La pandemia ha rappresentato la prima crisi globale nell'età degli algoritmi, ed ha prodotto una miriade di nuove modalità di utilizzare i dati per gestire l'azione dei governi. Senza le applicazioni basate sul contatto digitale, il tracciamento dei passaporti e dei vaccini, l'azione delle autorità sanitarie non sarebbe stata possibile. Ma nel momento stesso in cui queste nuove armi venivano messe in campo nell'interesse generale, si sono manifestate le preoccupazioni di singoli e di comunità sociali e politiche per le violazioni della privacy e l'eccesso di controllo sociale. Considerati i rischi evidenziati dall'AI Act dell'Unione Europea, è opportuno che la conoscenza e il dibattito sull'intelligenza artificiale si diffondano nella società, perché una grande mutazione è in atto, ed è necessario che sia affrontata consapevolmente da tutti.

Anche perché c'è da chiedersi come, in quanto tempo e con quali contenuti e obbiettivi, un chatbot avrebbe scritto questo articolo.

Per approfondire

https://artificialintelligenceact.eu/

https://www.agendadigitale.eu/cultura-digitale/lai-act-approvato-dal-parlamento-ue-luci-e-ombre-di-un-regolamento-di-portata-storica/

https://www.nytimes.com/2023/06/14/technology/europe-ai-regulation.html?searchResultPosition=1

https://formiche.net/2023/06/parlamento-europeo-ai-act-intelligenza-artificiale/

https://www.nytimes.com/2023/05/18/technology/ai-meta-open-source.html

https://www.adalovelaceinstitute.org/wp-content/uploads/2023/06/Ada-Lovelace-Institute-Lessons-from-the-App-Store-June-2023.pdf