, , ,

Legenda

Novità di primaria importanza che modificano il libro di testo
Aggiornamenti importanti che integrano il libro di testo
Dati, notizie e casi interessanti per fare lezione con l'attualità

  L’Unione Europea per prima nella regolamentazione delle intelligenze artificiali con l’AI Act

Intelligenza artificiale (IA) o Artificial Intelligence (AI) è un termine che abbiamo imparato a conoscere da vicino negli ultimi anni. In quale classe non si è parlato dell’impatto dirompente di ChatGPT per la produzione di testi o di Midjourney e Sora per la produzione di immagini e video?

Un oceano di possibilità didattiche e creative si è reso disponibile all’interno dei nostri smartphone e abbiamo iniziato a sperimentarne gli indubbi lati positivi. Il dibattito sull’utilizzo delle intelligenze artificiali, tuttavia, non manca di concentrarsi sulle ombre e sulle problematiche di questi sistemi. Cinema e letteratura sono pieni di racconti distopici in cui si immaginavano gli utilizzi futuri delle AI, utilizzi che raramente si concludevano con un lieto fine (pensate a I, Robot di Isaac Asimov, piuttosto che a Her di Spike Jonze o, sul grande schermo, alla saga Terminator).

Più il progresso tecnologico rende semplice e immediata la produzione di testi, foto e video, più le nostre società hanno iniziato a porsi interrogativi sulla gestione di questi strumenti. I beni giuridici da tutelare sono evidenti: la nostra sicurezza e riservatezza, la veridicità delle informazioni nonché le problematiche legate al diritto d’autore e ai lavori creativi.

Con il voto favorevole del Consiglio dell’Unione Europea dello scorso 21 maggio, l’UE è la prima organizzazione internazionale a dotarsi di una normativa quadro di riferimento in materia di intelligenze artificiali. Il regolamento europeo, che verrà pubblicato a breve in Gazzetta Ufficiale, rappresenta una prima risposta alle problematiche relative ai software basati su AI, individuando gli obiettivi da tutelare e introducendo sanzioni nei confronti delle aziende che non vi si conformeranno.

Vediamo con ordine quali sono le novità dell’AI Act.

Un sistema basato sul rischio

La prima e cruciale fase applicativa dell’AI Act riguarderà la classificazione delle AI in base al rischio. La normativa UE si basa su quattro livelli di rischio in base ai quali verranno applicati vari tipi di restrizioni:

  1. Rischio inaccettabile: le applicazioni inserite in questa fascia verranno vietate all’interno dell’Unione. Vengono considerati rischi inaccettabili la manipolazione comportamentale degli individui, il social scoring o la profilazione degli utenti basata sui loro dati personali, la raccolta di dati biometrici e identificativi degli utenti.
  2. Rischio elevato: i sistemi di IA inseriti in questa fascia dovranno rispettare il maggior numero di regole a causa del loro utilizzo in settori critici quali le infrastrutture, la formazione scolastica o professionale, l’amministrazione della giustizia o di altri servizi pubblici. Tutti i produttori di sistemi AI che vogliano avere accesso al mercato europeo dovranno seguire gli step indicati nella normativa per fare in modo che le loro piattaforme siano controllate, trasparenti e conformi a quanto stabilito dall’UE. Inoltre, gli Stati membri dovranno individuare delle autorità nazionali cui i cittadini potranno rivolgersi per problematiche riguardanti gli applicativi AI.
  3. Rischio limitato: si tratta di applicazioni che non vengono impiegate nei servizi pubblici o privati (ad esempio i chatbot) e che dovranno rispettare una normativa più snella composta da specifici obblighi in materia di trasparenza. I contenuti creati da queste AI dovranno essere facilmente identificabili, etichettati come generati artificialmente e dovrà sempre essere chiaro agli utenti che non stanno parlando con un essere umano. In particolare, in quest’area rischiano di finire i generatori di contenuti deep fake, termine con cui si identificano audio, foto o video costruiti artificialmente partendo da contenuti reali e che, per questo, sono particolarmente difficili da riconoscere. Le piattaforme dovranno rendere i contenuti creati dalle AI immediatamente riconoscibili in modo da poterne verificare facilmente la veridicità.
  4. Rischio nullo: in quest’ultima categoria rientrano tutte le applicazioni che non hanno bisogno di autorizzazioni particolari, o perché non coinvolgono dati sensibili degli utenti o perché hanno applicazioni limitate (ad esempio i filtri antispam per la navigazione internet).

 

Quali sono le sanzioni previste per chi non rispetta la normativa?

Il sistema di tutele che verrà messo in piedi applicando l’AI Act potrebbe ricordare il percorso del GDPR, la normativa europea a tutela della privacy e della riservatezza degli utenti. Cruciale sarà la vigilanza effettuata dalle autorità nazionali, nonché il coordinamento tra le stesse e gli organi dell’Unione. A tal proposito, il 29 maggio la Commissione Europea ha inaugurato il nuovo ufficio AI, formato da più di 140 dipendenti, che sarà di centrale importanza nell’attuazione dell’AI Act. All’interno dell’ufficio, infatti, è presente un’unità che si occuperà di facilitare l’applicazione uniforme del regolamento e vigilerà sulla sua attuazione da parte degli Stati membri.

Gli Stati membri potranno prevedere sanzioni pecuniarie le cui soglie massime sono state stabilite del regolamento e che sono differenziate in base al livello di rischio. Per le applicazioni a rischio più alto, si parla di 35 milioni di euro o di una multa pari al 7% del fatturato totale annuo dell’azienda, per le pratiche vietate dal regolamento fino a 15 milioni di euro o il 3% del fatturato, per la fornitura di informazioni inesatte fino a 7,5 milioni di euro o 1,5% del fatturato.

Il regolamento vedrà completa applicazione entro i prossimi due anni, in modo da dare il tempo necessario alle aziende e agli Stati di adeguarsi alle richieste dell’UE. Di certo si tratta di un primo passo necessario verso la regolamentazione di un settore in rapidissima evoluzione.

 

Attività

AI: luci e ombre delle piattaforme del futuro
Confrontatevi all’interno della classe: quanti di voi hanno provato a utilizzare un’intelligenza artificiale generativa negli ultimi mesi? Dopo esservi confrontati, suddividetevi in piccoli gruppi di lavoro e collaborate alla produzione di un elaborato dal titolo “intelligenza artificiale: luci e ombre”. Lo scopo dell’elaborato sarà quello di mostrare i lati positivi delle intelligenze artificiali attualmente disponibili al pubblico dei consumatori e di metterne in luce anche i contrastanti lati negativi. Individuate i beni giuridici che andranno tutelati maggiormente in futuro e ipotizzate degli strumenti di tutela.

 

Fonti per approfondire:

 

Riferimenti nei testi Zanichelli:

  • Ronchetti, Diritto ed economia politica 5ed., vol. 3, p. 425
  • Monti-Faenza, Res publica 4ed., p. 341
  • Monti, Per Questi Motivi, vol. 3 diritto pubblico, p. 410;
  • Ronchetti, Diritto e legislazione turistica, vol. 2, p. 420;

 

Tag: , , , , ,