Viviamo dentro una contraddizione drammatica. Lo sviluppo dell’intelligenza artificiale rappresenta un progresso tecnologico e scientifico enorme, con ricadute potenzialmente positive, forse persino straordinarie, in tutti i campi della vita. Ma questo avanzamento avviene mentre assistiamo a un impressionante regresso sociale, politico ed etico. Si apre così un paradosso gigantesco: da un lato la spinta della ricerca scientifica e tecnologica; dall’altro, il deterioramento del tessuto sociale, segnato dalla crescita delle disuguaglianze, dalla crisi radicale delle democrazie, dall’arresto del progetto espansivo dei diritti umani, dall’attacco alle istituzioni internazionali di giustizia e al multilateralismo. A ciò si aggiunge il discredito della politica come luogo di rappresentanza e partecipazione degno del nostro rispetto, sostituita dal gioco degli interessi, dal leaderismo narcisistico, in un clima dominato dallo squallore e dal grottesco.
Sono movimenti indipendenti, ma al tempo stesso collegati. La tecnologia cognitiva è un programma di ricerca aperto e produce un progresso oggettivo che si presta a usi molteplici. Eppure ha un rapporto interno con il regresso che stiamo vivendo: i protagonisti sono le Big Tech. Dopo una prima fase progressista, segnata dall’utopia digitale, l’industria IT è entrata nel capitalismo neoliberale estrattivista – pensiamo alla quantità astronomica di energia e acqua richiesta dai futuri data center o agli sweatshops digitali. È una logica centralistica e monopolistica, che si è adattata alle nuove spinte autoritarie intrecciandosi con il degrado degli assetti democratici. Un’immagine simbolica è arrivata dal sostegno unanime dei leader delle Big Tech alla nuova amministrazione negli Stati Uniti.
Trump ha intrapreso diverse azioni in questo campo. Ha revocato l’ordine esecutivo di Biden del 2023 che mirava ad avvicinare gli Stati Uniti al modello dell’AI Act europeo. Considera l’IA un fattore di potenza nazionale e, con l’America’s AI Action Plan dello scorso luglio, si scaglia contro le regolamentazioni considerate gravose, proponendo invece un’IA fondata sui valori americani e sulla libertà di espressione, con al centro l’esportazione della tecnologia statunitense. L’obiettivo dichiarato è di rivedere il quadro di gestione dei rischi dell’IA del National Institute of Standards and Technology per eliminare i riferimenti alla disinformazione, a diversità, equità e inclusione, e al cambiamento climatico. È la stessa campagna che attraversa il mondo accademico, la ricerca e, più in generale, i gangli della società americana e le sue ramificazioni globali.
L’altro grande attore è la Cina, dove la ricerca sull’IA è anch’essa una questione di potenza nazionale. Qui lo sviluppo è diretto centralisticamente da uno Stato autoritario, che utilizza la tecnologia per scopi di sorveglianza e di controllo delle condotte individuali, inserendola in un progetto politico più ampio di consolidamento del potere e di gestione pervasiva della società.
Ma i problemi non vengono solo dall’uso politico dell’IA: sono interni alla sua stessa natura. Con l’IA stiamo imparando a trasferire a sistemi artificiali il pensiero, la deliberazione e le decisioni. In altre parole, l’intero campo cognitivo e pratico, destinato a entrare gradualmente in tutte le sfere della vita. Questo trasferimento ha conseguenze dirette sui valori che intendiamo difendere: l’autonomia del pensiero e delle scelte individuali, e la giustizia. Il rischio è un affidamento crescente alle macchine e la conseguente perdita di controllo cognitivo e pratico, attraverso la manipolazione, la dissoluzione della differenza tra realtà e finzione, la diffusione di deepfakes e propaganda mirata grazie alla profilazione di gusti e preferenze. La possibilità di prevedere con precisione le nostre reazioni conferisce un potere enorme di influenza e di sorveglianza, rafforzando i sistemi politici chiusi e autoritari. E l’IA è già impiegata per questi scopi.
In fondo, il problema è la perdita di controllo sugli schemi riflessivi con cui pensiamo il mondo. Non si tratta soltanto di una questione individuale: è in gioco il tipo di società capace di favorire autonomia, pensiero critico e discussione informata. Sono già operativi sistemi per influenzare l’opinione pubblica, che corrodono sotto la superficie le istituzioni democratiche (un esempio è il caso di GoLaxy, l’azienda cinese che ha condizionato le elezioni a Hong Kong e Taiwan e ha raccolto dati dei parlamentari statunitensi, come riportato dal «New York Times»). Tutto questo riguarda anche la giustizia, cioè le condizioni in cui uguaglianza e diritti possono essere rispettati e promossi. Rousseau avvertiva che il passaggio dagli individui isolati all’unione di persone che dipendono le une dalle altre deve essere pensato con attenzione, perché questa dipendenza non si trasformi in schiavitù. Con l’IA stiamo assistendo a una trasformazione profonda dei modi in cui le persone sono unite e dipendono reciprocamente. Per questo abbiamo bisogno di una nuova democrazia digitale.
La tradizione umanistica, la scienza e il pensiero critico – da Socrate in avanti – hanno coltivato esattamente questa capacità: chiedere ragioni, contestare autorità religiose, politiche o culturali. Lo studio e la ricerca ci forniscono gli strumenti per esaminare criticamente gli schemi riflessivi con cui comprendiamo la realtà e prendiamo decisioni. E ci permettono di riporre fiducia, o di ritirarla, in chi ne sa più di noi: esperti che hanno maturato conoscenza ed esperienza, in un gioco di divisione del lavoro intellettuale e pratico che resta sempre sottoposto a riflessione critica.
L’IA mette a dura prova questa tradizione. Non si tratta di problemi nuovi: sono gli stessi che l’Illuminismo e la democrazia hanno già posto, legati alla necessità di disporre di credenziali critiche sulla cui base dare fiducia a un’autorità e considerarla ragionevole. Ma con i sistemi artificiali l’affidamento diventa sistemico, procede con un ritmo accelerato e incoraggia un atteggiamento di passività. Il grande rischio è che solo piccole minoranze sappiano padroneggiare questa trasformazione, mentre per molti essa si tradurrà in una perdita di autonomia. Del resto, l’autonomia etica e intellettuale è sempre stata difficile: richiede cultura, esperienza e spesso nasce da occasioni imposte dalla vita stessa – marginalità, conflitti, rotture – che costringono a guardare dall’esterno ciò che la maggioranza considera giusto. Nelle condizioni attuali l’IA, al contrario, rischia di favorire il conformismo, una pigrizia intellettuale da cui solo pochi sapranno sottrarsi.
Anche la questione del lavoro rientra in questa logica di distribuzione tra pochi e molti. In un mondo ideale, affidiamo alle macchine gran parte del lavoro manuale e intellettuale, le decisioni che ci affaticano, la gestione complessa della vita quotidiana. In cambio otteniamo tempo libero per realizzarci. Era l’idea, già in Mill e in parte in Marx, di un tempo sottratto alla fatica e all’alienazione per aprire nuove possibilità di vita e autorealizzazione. In questo scenario, persino il lavoro stesso si trasformerebbe in attività di conoscenza, in cui esprimere la propria creatività. Ma questo scenario rischia di trasformarsi in un feticcio, che maschera manovre di ricostruzione di nuove disuguaglianze e abissi di classe. Il lavoro creativo e il tempo liberato potrebbero riguardare solo ristrette élite, mentre le disuguaglianze si ampliano.
Ci sono poi contesti particolari: l’uso dell’IA nei tribunali o come supporto all’attività politica, ad esempio. È vero, i giudici commettono errori clamorosi e i politici prendono decisioni scellerate. Eppure riteniamo importante che, in questi casi, siano esseri umani ad assumersi la responsabilità: persino l’errore conserva un ruolo e un significato. È su questa fiducia che costruiamo uno spazio sociale condiviso, fatto anche di riti e di cerimonie, attorno alla giustizia e alla politica. La specificità della politica come ambito di scelte in condizioni di conoscenza imperfetta, in cui contano non solo i risultati ma anche i procedimenti, è stata difesa in modo convincente da Daniel Innerarity nel suo ultimo libro Una teoría crítica de la inteligencia artificial1. La politica, come la giustizia e persino l’amicizia, nella sfera privata, hanno una dimensione cerimoniale: sono pratiche attraverso le quali onoriamo i rapporti umani e i valori che ci tengono uniti. Il trasferimento di queste pratiche a sistemi artificiali non significherebbe soltanto un cambio di strumenti per ottenere risultati, ma la perdita di ciò che per noi rappresenta ancora giustizia, politica e amicizia.
La soluzione non sta certo nel rifiuto dell’IA, ma nella capacità di impossessarsi di questa tecnologia. Occorre evitare rappresentazioni troppo chiuse, che promettono certezze facili. La trasformazione tecnologica da sola non spiega tutto: dobbiamo guardare alle spinte sociali, alle nuove forme di vita, ai mutamenti storici. La democrazia è una costruzione aperta e l’IA è una tecnologia in continua evoluzione. Sul piano politico, come ha scritto Ian Bremmer, la via migliore è fare in modo che l’IA non diventi monopolio di nazioni e imprese, ma si diffonda attraverso modelli open source, nelle mani della società civile. Non è affatto detto che la posizione dominante delle Big Tech sia destinata a durare. DeepSeek, ad esempio, ha segnato una cesura importante, aprendo la possibilità di un modello più multipolare.
L’IA, inoltre, è anche un prodotto di massa: e non riguarda solo individui indottrinati, ma persone portatrici di tradizioni e sensibilità diverse. Esiste un Sud globale, ed esiste ancora una sensibilità democratica che cerca modelli e sistemi affidabili. L’amministrazione americana sembra avere abbandonato il soft power della cultura e degli stili di vita, che tanto peso ha avuto nel diffondere il modello statunitense nel mondo, per puntare tutto sulla potenza nazionale e sull’uso della forza, con tutto il corredo grottesco che lo accompagna. Ma non è detto che questa strategia favorisca davvero i nuovi autocrati: il mercato accoglie anche gusti e preferenze che possono incrinare i progetti tecno-autoritari. Non si tratta di lanciare messaggi facili di ottimismo, ma di ricordare che tutti i fattori vanno messi in conto.
L’IA non è un motore autonomo di sviluppo: vive dentro contesti culturali e politici che la orientano e la condizionano, e questi contesti restano, almeno in parte, nelle nostre mani. L’IA vive anche dei suoi utilizzatori, in gran parte persone comuni – cioè tutti noi. Li sorveglia e li influenza, ma in determinate circostanze essi conservano la possibilità di resistere, di appropriarsi degli strumenti o di rifiutarli. Possiamo pensare l’IA come l’ultima figurazione della logica televisiva: un telecomando in mano che dà il potere di cambiare canale. Poi è arrivato internet, e ora l’IA, che interviene direttamente sulla realtà. È una vicenda di persuasione, ma anche di libertà: riflette l’ambivalenza dei gusti, funzionali al mercato e al controllo, ma capaci al tempo stesso di generare nuove soggettività e nuove forme di vita.
L’assetto attuale appare bloccato, dominato dalle grandi aziende e dagli stati autoritari. Al tempo stesso, il marketing dell’IA si intreccia con un’ideologia futuristica ormai familiare, funzionale all’indebolimento delle democrazie. Si evocano rischi esistenziali e, nello stesso tempo, si alimenta l’attesa di un balzo in avanti, quando l’umanità sarà superata dall’intelligenza artificiale generale: un incubo che si trasforma subito in desiderio. La tecnologia viene brandita in chiave millenaristica, per spostare lo sguardo su un futuro lontano e farci dimenticare il presente drammatico e gli strumenti che abbiamo per affrontarlo. “La tecnologia risolverà tutti i problemi” finisce così per significare che non vale la pena impegnarsi a migliorare le condizioni attuali, unendo le forze, ritrovando la via della cooperazione, allargando lo sguardo all’umanità che esiste oggi, convincendo e lottando insieme.
E così torniamo al punto di partenza: alla contraddizione tra progresso tecnologico e regresso sociale e politico. I due aspetti si tengono, perché il modo in cui l’IA viene raccontata e venduta, tra ideologia millenaristica e fascinazione collettiva, alimenta la sfiducia in un cambiamento sociale e politico possibile qui e ora. Il compito che ci attende è riportare l’IA a terra, sul terreno scabro delle nostre motivazioni confuse, dove tuttavia resistono il desiderio di giustizia, l’amore per l’uguaglianza e la speranza di una vita migliore per tutti.
[Questo articolo è la trascrizione dell’intervento del prof. Donatelli alla seconda giornata di studi, promossa dall’Osservatorio autoritarismo, dedicata a “Intelligenza artificiale e democrazia” tenutasi il 12 settembre a Firenze, presso l’Istituto Universitario Europeo].


Luigi Manconi