Intelligenza artificiale. L’Europa alla prova delle regole su copyright e deepfake

Il Parlamento Ue ha approvato la legge sull'intelligenza artificiale che punta a promuovere innovazione garantendo la sicurezza e rispetto dei diritti fondamentali.

Intelligenza artificiale. L’Europa alla prova delle regole su copyright e deepfake

I primi al mondo. Il Parlamento europeo ha approvato la legge sull’intelligenza artificiale (IA), che punta a promuovere l’innovazione garantendo la sicurezza e il rispetto dei diritti fondamentali. Thierry Breton, commissario europeo per il mercato interno e i servizi, ha salutato sul social network X il “grande sostegno” dato al testo dai deputati europei (523 voti a favore e 46 contrari). Il progetto di legge era stato presentato dalla Commissione europea nell’aprile 2021. Da allora la comparsa di ChatGpt, il chatbot della start-up statunitense OpenAi (in grado di generare testi, poesie e traduzioni in pochi secondi), aveva dato ulteriore rilevanza al tema, alimentando il dibattito su potenzialità e rischi dell’IA. In particolare, la diffusione di foto e video falsi ha evidenziato i rischi di manipolazione dell’opinione pubblica.

Il Parlamento Ue ha approvato la legge sull’intelligenza artificiale che punta a promuovere innovazione garantendo la sicurezza e rispetto dei diritti fondamentali

La domanda, però, a questo punto è inevitabile. Cosa prevede nel dettaglio il testo? La nuova legge prevede un approccio a due livelli. I modelli di IA per “uso generale” dovranno rispettare gli obblighi di trasparenza e le regole europee sul diritto d’autore. I sistemi considerati “ad alto rischio” – usati, per esempio, nelle infrastrutture cruciali, nell’istruzione, nelle risorse umane e nella sicurezza pubblica – dovranno invece rispettare requisiti più severi. In particolare, dovranno includere una valutazione obbligatoria delle loro conseguenze sui diritti fondamentali. Testi, immagini e video generati dall’intelligenza artificiale (i cosiddetti deepfake) dovranno essere chiaramente identificati come tali. Saranno vietati i sistemi di sorveglianza di massa usati in Cina, nonché quelli d’identificazione biometrica a distanza nei luoghi pubblici.

Su quest’ultimo punto, tuttavia, sono previste eccezioni per le forze dell’ordine, per esempio per la prevenzione di una minaccia terroristica e per la ricerca mirata delle vittime. Il testo prevede un meccanismo di controllo e imposizione di sanzioni con la creazione di un ufficio europeo dell’IA presso la Commissione europea. L’ufficio potrà imporre multe comprese tra 7,5 e 35 milioni di euro, a seconda dell’entità della violazione e delle dimensioni dell’azienda. Mancano ancora dei passi, però, prima che la legge diventi realtà: i ventisette Stati membri dovrebbero approvare il testo ad aprile, prima della pubblicazione sulla gazzetta ufficiale dell’Ue tra maggio e giugno.

Gli esperti hanno salutato con grande entusiasmo la nuova legge. Ma restano però dei coni d’ombra. Timori ad esempio sono stati espressi dalle start up e dalle società europee del nascente mercato dell’intelligenza artificiale, preoccupate dei costi di adempimento per il rispetto del diritto d’autore e per l’entità molto elevata delle sanzioni previste dall’Artificial intelligence act, improntate ad un principio di proporzionalità crescente, rispetto ai tipi di intelligenza artificiale.

L’Europa alla prova delle regole su copyright e deepfake. Passo decisivo di Bruxelles per regolamentare la materia.

C’è poi tutto il discorso dei sistemi di categorizzazione biometrica basati su caratteristiche sensibili o l’estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale. In linea di principio le forze dell’ordine non potranno fare ricorso ai sistemi di identificazione biometrica, tranne in alcune situazioni specifiche espressamente previste dalla legge. L’identificazione “in tempo reale” potrà essere utilizzata solo se saranno rispettate garanzie rigorose, ad esempio se l’uso è limitato nel tempo e nello spazio e previa autorizzazione giudiziaria o amministrativa.

“L’approvazione dell’AI ACT da parte del Parlamento Europeo – ha commentato il presidente della Siae, la Società che tutela il diritto d’autore, oltre a dotare l’Unione europea di una legge, la prima al mondo, che disciplina lo sviluppo e l’utilizzo di sistemi di AI anche nell’industria creativa, è la dimostrazione di quanto può essere efficace il nostro comparto quando si muove in maniera congiunta e unitaria.

Preoccupate le startup che vedono crescere i costi e la distanza con le Big Tech. Ma la tecnologia corre e restano ancora coni d’ombra

Sono stati infatti pienamente recepiti e sposati gli appelli che il nostro comparto, già da diversi mesi, aveva portato all’attenzione dei referenti politici, affinchè le grandi opportunità offerte dall’intelligenza artificiale fossero regolamentate, nell’ottica della massima trasparenza e della tutela degli autori ed editori. Per una volta – ha sottolineato Nastasi – la politica e il mondo produttivo dimostrano di stare al passo con le rivoluzioni tecnologiche che hanno già iniziato a cambiare le regole del gioco, incidendo tanto nel nostro lavoro quanto nella vita quotidiana”.