Sono tempi sempre più duri per chi fa un utilizzo indiscriminato (e diciamocelo, a volte anche un po' criminale) dell'intelligenza artificiale. È stato pubblicato sulla Gazzetta Ufficiale Europea il 12 luglio scorso il cosiddetto AI Act (letteralmente, legge sull'intelligenza artificiale), ovvero i provvedimenti decisi dall'Europa per tentare di controllare l'uso dell'AI nelle applicazioni lavorative e garantire trasparenza ai cittadini.
Le tre leggi di Asimov, una proto-legislazione
Vi abbiamo parlato spesso dell'intelligenza artificiale e di come ormai faccia parte della nostra vita quotidiana. Solo qualche anno fa, una presenza così intrusiva dell'AI nel normale svolgimento delle nostre attività non sarebbe stata neanche pensabile. Eravamo portati a pensare che i "robot" fossero solo roba da film di fantascienza oppure, al massimo, da laboratori di sofisticata intelligence ultrasegreta. Era logico e normale che non esistesse alcuna legge che governasse l'uso di un qualcosa che, semplicemente, non si usava ed esisteva solo nella fantasia.
In realtà, una forma di legislazione sull'intelligenza artificiale può essere rintracciata già nelle tre leggi della robotica compilate dallo scienziato e scrittore Isaac Asimov nel 1942. Questi tre enunciati sono rimasti famosi (e utilizzati in tantissimi libri e film sull'argomento) in quanto si posero come prima forma di definizione sotto forma di legge di quello che un (allora) ipotetico robot avrebbe o non avrebbe potuto fare in rapporto agli altri esseri umani. Dando per scontata comunque una forma di subordinazione e dipendenza della macchina verso l'uomo, le tre leggi recitavano:
"Un robot non può recare danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno."
"Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge."
"Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o la Seconda Legge."
Successivamente, Asimov aggiunse una legge zero che era una sorta di premessa di tutte le altre:
"Un robot non può recare danno all'umanità né può permettere che, a causa del proprio mancato intervento, l'umanità riceva danno."
Tuttavia queste restarono per lungo tempo solo quasi degli artifizi letterari, visto che appunto la possibilità che dei robot interagissero con degli esseri umani per molti decenni è rimasta nelle pagine dei libri e nella fantasia degli sceneggiatori. Il film Io, Robot del 2004 con Will Smith basa la sua trama quasi interamente sulle tre leggi di Asimov ed è ambientato in un mondo futuristico in cui uomini e robot coesistono perfettamente:
Appena 20 anni dopo, siamo arrivati al punto di dover definire veramente una serie di leggi che regolino l'uso dell'intelligenza artificiale rendendo realtà tutte quelle distopie che negli anni passati hanno letteralmente inventato un nuovo genere cinematografico e di narrativa.
Perchè è necessaria una legge sull'intelligenza artificiale
Una legge sull'intelligenza artificiale è necessaria per due motivi:
1) non c'è ancora
2) l'IA è ormai ovunque e come ogni cosa che impatta sul nostro vivere è necessario che venga governata da delle regole
Vi abbiamo raccontato più volte dei pericoli e delle truffe elaborate con l'uso massiccio dell'IA (ultimamente avevamo approfondito i deepfake, illustrandone anche gli usi fraudolenti). Molte di queste truffe riescono a diffondersi in maniera così capillare e a fare danni così profondi proprio perchè, in mancanza di una serie di leggi apposite, i responsabili (qualora individuati) rischierebbero pene ridicole o addirittura nulle.
Vista la situazione attuale e prevedendo un immediato futuro in cui la pervasività dell'AI non possa che aumentare, l'Unione Europea ha quindi deciso di dotarsi di una regolamentazione che entrerà in vigore in tutti gli stati membri (quindi anche in Italia) dal prossimo 1 agosto 2024. Se siete curiosi di consultarlo, trovate il testo integrale qui.
Cosa cambia dal 1 agosto 2024
Come riportato da HDBlog.it, a partire da sei mesi da ora si inizieranno a implementare divieti su applicazioni vietate per l'AI, come l'uso di sistemi di classificazione del credito sociale, la raccolta e la compilazione di informazioni di riconoscimento facciale per database, così come l'uso di sistemi di riconoscimento delle emozioni in tempo reale nelle scuole e nei luoghi di lavoro.
Tra nove mesi, l'UE inizierà a implementare codici di condotta per gli sviluppatori di AI. L'Ufficio AI dell'UE, istituito dalla Commissione Europea, lavorerà con società di consulenza per redigere questi codici. Prevede inoltre di collaborare con aziende che forniscono modelli di uso generale considerati a rischio sistemico, ma ci sono preoccupazioni sul fatto che i maggiori attori del settore saranno in grado di influenzare le regole che dovrebbero tenerli sotto controllo.
Dopo un anno, i produttori di modelli di AI di uso generale, come ChatGPT, dovranno conformarsi a nuovi requisiti di trasparenza e dimostrare che i loro sistemi sono sicuri e facilmente spiegabili agli utenti. Oltre a tutto ciò, l'AI Act include regole che si applicano all'AI generativa e ai media manipolati, come garantire che deepfake e altre immagini, video e audio generati dall'AI siano chiaramente etichettati.
Le aziende che addestrano i loro modelli di AI dovranno rispettare le leggi sul copyright, a meno che il loro modello non sia creato esclusivamente per la ricerca e lo sviluppo. "I titolari dei diritti possono scegliere di riservare i loro diritti sulle loro opere o altri oggetti per prevenire l'estrazione di testi e dati, a meno che ciò non sia fatto per scopi di ricerca scientifica", si legge nel testo dell'AI Act. "Quando il diritto di esclusione è stato espressamente riservato in modo appropriato, i fornitori di modelli di AI di uso generale devono ottenere un'autorizzazione dai titolari dei diritti se desiderano effettuare l'estrazione di testi e dati su tali opere."
Le norme promulgate dall'Unionte Europea prevedono:
- Regole armonizzate per l’immissione sul mercato, la messa in servizio e l’uso dei sistemi di AI nell’Unione;
- Divieti di talune pratiche di AI;
- Requisiti specifici per i sistemi di AI ad alto rischio e obblighi per gli operatori di tali sistemi;
- Regole di trasparenza armonizzate per determinati sistemi di AI;
- Regole armonizzate per l’immissione sul mercato di modelli di AI per finalità generali;
- Regole in materia di monitoraggio e vigilanza del mercato, governance ed esecuzione;
- Misure a sostegno dell’innovazione, con attenzione alle PMI, comprese le start-up.
Le sanzioni per i trasgressori saranno fissate in percentuale al fatturato annuo globale dell'azienda, da un minimo di 7,5 milioni di euro o l'1,5% del fatturato fino a 35 milioni o il 7% del fatturato. Sanzioni proporzionali sono previste per PMI e start up.