Quelli della mia generazione ricordano certamente uno degli episodi più famosi di Fantasia, uno dei primi film d’animazione degli anni ’40. In esso un Apprendista Stregone, in assenza del proprio maestro, lancia una magia che gli sfugge però presto di mano e che rischia di travolgere ogni cosa, fino a che il ritorno dello stregone non riporta sempre, magicamente, l’ordine iniziale.
Non so se la rivoluzione digitale iniziata nei lontani anni ’70 potrà essere inquadrata, ma le sue manifestazioni più recenti, e in particolare l’esplosione a livello mondiale delle applicazioni di Intelligenza artificiale (AI) anche in campo militare o a tutela della cd “sicurezza interna”, non promettono molto di buono. A lanciare il grido di allarme – solo il 12 settembre scorso, in occasione di un incontro con il Pontefice – non sono stati tre personaggi qualsiasi ma tre scienziati come Geoffrey Hinton, Yoshua Bengio e Yann LeCun, considerati i “padri” della AI. A mettere in guardia il mondo è stato proprio Hinton, premio Nobel per la fisica nel 2024, che, dopo avere abbandonato Google, ha firmato un appello assieme al collega premio Nobel Giorgio Parisi, per chiedere a Open AI, l’azienda che ha sviluppato Chat GPT, di rallentare gli sviluppi e, soprattutto, di garantire una maggiore trasparenza.
Ma la corsa sta ormai accelerando a livello globale, spinta da una combinazione di fattori, come fortissimi interessi economici, potenzialità tecniche quasi illimitate e interessi politici che definire poco interessati ai diritti delle persone è più che understatement.
Quello che soprattutto sembra sfuggire in questa rincorsa sono le remore e i principi che avevano permesso, a partire dagli anni ’80, di arginare queste pressioni in nome della protezione dei dati. Certo, almeno in Europa resta valido il divieto di incriminare le persone sulla base del solo trattamento automatizzato dei dati previsto da una Convenzione del 1981, e questo principio è stato ripreso dall’Unione Europea nella Direttiva 95/46, dal regolamento generale (GDPR) che l’ha sostituita dopo l’entrata in vigore del Trattato di Lisbona e della Carta, e figura ora anche nell’Artificial Intelligence ACT. Questo principio non solo non è più sufficiente in Europa ma lo è ancora meno al di fuori del nostro continente, nonostante molti Paesi come il Canada, il Giappone o il Brasile ne abbiano tenuto conto.
Alla sua origine vi è infatti un concetto tipicamente europeo che risale alla filosofia tedesca, che privilegia la capacità di scelta e di autorealizzazione dell’Individuo libero da pressioni di altri individui o del potere pubblico. Così, come diceva Rodotà, proteggere i dati delle persone è in realtà proteggere la loro identità e dignità, assicurando al tempo stesso una società in cui dovrebbe prevalere la fiducia e il rispetto reciproco.
Questo principio europeo della Informational Self Determination, in cui è il cittadino a controllare il potere e non viceversa, é ormai, purtroppo, sotto attacco da parte di due diverse filosofie che chiamerei americana e cinese.
La prima è l’espressione di un Far West informativo dove, in nome della libertà di espressione, e della pressoché inesistente protezione dei dati, viene favorita l’alluvione di informazioni, messaggi e manipolazioni più o meno occulte che ci sommergono attraverso le reti sociali. Si presenta come uno strumento di libertà, offre enormi possibilità prima impensabili, ma mira innanzitutto a favorire gli interessi economici di pochi imprenditori che stanno invadendo con i loro strumenti e prodotti il globo e ora anche lo Spazio. Vengono così subdolamente monetizzate le informazioni personali e viene alimentata l’illusione della gratuità dei servizi, mentre, come è stato già detto, sono le persone ad essere trasformate in prodotti.
Chiedere a questi imprenditori – Google, Facebook, Amazon, Microsoft – di tenere conto delle esigenze di democrazia, coesione sociale e rispetto dei diritti delle persone si sta inevitabilmente rivelando una patetica illusione. Certo, a livello delle Nazioni unite, dell’OCSE, del Consiglio d’Europa si moltiplicano gli appelli e le dichiarazioni a favore dei principi etici, ma sembrano sempre più vane parole, anche perché queste stesse società sono ormai protette dalla Presidenza degli Stati Uniti che minacciano di ritorsioni chiunque pretenda di imporre loro regole e limiti.
Vi è poi il modello cinese, che afferma di avere un proprio codice di protezione delle persone ma che in realtà pone la sicurezza e la coesione del proprio sistema al di sopra di qualsiasi sistema di tutela dell’individuo rispetto alle esigenze della società.Sappiamo tutti del cosiddetto “social Score” che, in nome della tutela della sicurezza e del bene collettivo, accompagna ormai nella propria vita personale, famigliare e sociale i cittadini dell’impero di mezzo.
Ma ciò che rende l’AI ben più pericolosa del semplice abuso dei dati personali è il fatto che attraverso algoritmi sempre più sofisticati questi dati sono il carburante di prodotti, servizi e programmi che a partire da dati storici permettono di prefigurare possibili sviluppi futuri. Il tentativo non è nuovo o originale ed è ormai alla base della legislazione americana ed europea in materia di controllo dei dati dei passeggeri aerei (PNR) al fine di individuare potenziali terroristi, o delle legislazione in materia di riciclaggio dei capitali o dei trasferimenti bancari attraverso il sistema SWIFT.
Il Parlamento europeo che ho avuto l’onore di servire ha tentato dal 2003 al 2012 di porre un freno a queste applicazioni considerandole sproporzionate e incompatibili con una società democratica proprio perché generalizzano il sospetto su passeggeri, utenti bancari e operatori economici.
A porre un freno forse solo temporaneo a queste derive è stato uno studente austriaco, Maximilian Schrems, che ha permesso alla Corte di Giustizia di annullare accordi che l’Unione Europea aveva negoziato con gli Stati Uniti in materia di protezione dei dati (Sentenze Schrems I e II). Sempre su iniziativa di privati (La Ligue des droits Humains) la Corte ha ugualmente riscritto sostanzialmente la Direttiva europea in materia dei dati dei passeggeri aerei (Sentenza C-817/19) proprio perché costituiva una invasione sproprozionata nella privacy delle persone.
Importante rilevare che quella stessa sentenza ha affermato che le autorità pubbliche non possono ricorrere a forme di intelligenza artificiale generativa in quanto questa segue percorsi che lo stesso autore non saprebbe tracciare. Così facendo verrebbe meno la possibilità di difendersi da parte del cittadino, e con questa la violazione di un suo diritto fondamentale riconosciuto dalla Carta dei Diritti.
Le salvaguardie dei giudici permetteranno di resistere alla estensione delle applicazioni di intelligenza artificiale che vengono giustificate in nome della sicurezza? C’è da sperarlo, ma non è certo, anche a giudicare da una recentissima sentenza del Tribunale europeo (Latombe V Commissione) che sembra invece aprire una finestra alla legislazione USA.
Certo, l’AI Act europeo cerca di porre dei limiti agli abusi dei privati, ma, purtroppo, non copre possibili abusi da parte delle autorità pubbliche in nome della tutela della sicurezza interna, aprendo così a rischi di incoerenza con le norme in materia di protezione dei dati che coprono anche questo settore .
Nei prossimi mesi la Commissione intende rimettere mano al quadro legale della protezione dei dati e dell’intelligenza artificiale e si deve chiedere che questo avvenga in modo trasparente, così da permettere un monitoraggio costante da parte della società civile.
[Questo articolo è la trascrizione dell’intervento di De Capitani alla seconda giornata di studi, promossa dall’Osservatorio autoritarismo, dedicata a “Intelligenza artificiale e democrazia” tenutasi il 12 settembre a Firenze, presso l’Istituto Universitario Europeo].