Confess your passion, your secret fear
Prepare to meet the challenge of the new frontier
(D. Fagen, New frontier, 1983)
Democrazia, perenne frontiera?
Possiamo affermare che la democrazia (che come metodo arcaico e rudimentale di “governo”, è presente come forma politica da millenni; cfr. Olson, 1993) oggi sia arrivata a un’ineluttabile capolinea grazie alla rivoluzione tecnologica informatica?[1] E, se così è, come verrà modificata e integrata nel nuovo paradigma?
Oggi la sfida politica del futuro è questa: decapitare l’organismo complesso privandolo del centro di controllo e di comando. E, successivamente, modificare ciò che ne rimane facendo leva sulla parte totipotente di esso per generare una rete autocosciente e autoconsapevole in grado di replicare le funzioni del centro di controllo e di comando. Si tratta quindi di “demolire” il quartier generale e di “ricostruirlo” in modo diffuso, interrompere afflusso ed efflusso di informazioni da un centro verso la periferia e viceversa, e implementare al suo posto reti e anelli di circolazione delle informazioni a più livelli, tali da portarle tutte ovunque e lasciando che sia la periferia a selezionarle tra quelle necessarie.
Questo modello, che fa parte della categoria delle ‘democrazie dirette’, è una conseguenza della nascita e dello sviluppo della ‘rete’, di internet.
Questa forma di democrazia è però un esercizio estremamente complesso, ambizioso e visionario. Assolutamente diversa dalla visione puerile che ne danno i suoi antagonisti (e molti ingenui promotori). Che, come vedremo, per poter essere anche solo prototipizzata necessita di alta formazione, trasparenza dell’informazione mediata, capillarità nella sua diffusione, stabilità tecnologica, bacino energetico indipendente e garantito, sistemi di difesa e monitoraggio della rete, IA a difesa di IA ostili ecc.
Questa forma di democrazia è necessariamente proiettata nel futuro ma porta con sé enormi rischi, potenzialmente catastrofici se sottovalutati o, peggio, trascurati.
Lo scenario
Il 23 febbraio 1455 Johannes Gutenberg ultima la stampa della prima Bibbia realizzata con tecnica tipografica e ne mette in vendita 180 copie che andranno a ruba. Il 6 agosto 1991 Tim Berners-Lee pubblica il primo sito web e il 30 aprile 1993 il CERN decide di rendere pubblica la tecnologia del World Wide Web. Tra i due eventi sono trascorsi 538 anni. Poco più di mezzo millennio per assorbire la rivoluzione culturale provocata dalla diffusione della parola scritta e per svilupparne tutte le possibili conseguenze.
Dopo Gutenberg, quindi, leggere diventa accessibile ai più, e anche possedere un libro non è un lusso riservato solo ai nobili e ai ricchi: basti pensare che una Bibbia miniata e trascritta a mano su pergamena ai tempi di Carlo Magno poteva costare l’equivalente di parecchie migliaia di euro e ci volevano un paio d’anni per completarla, un gregge di pecore a disposizione per la pergamena, pelle di cervo per la copertina e un monastero in grado di controllare e verificare che la trascrizione fosse corretta.
La conoscenza scritta, con l’andare dei secoli, inizia a raggiungere fasce di popolazione che altrimenti avrebbero solo ascoltato qualcuno parlare e raccontare, perché il monopolio della cultura in epoca medievale era esclusiva degli ordini religiosi. La diffusione della stampa e del libro penetra progressivamente gli strati sociali. Ci sono voluti secoli di rivoluzioni, di scoperte scientifiche, di conseguente arricchimento tecnologico, di nuove necessità intellettuali, nuove branche di sapere, nuove frontiere prima che la diffusione della conoscenza avvenisse in modo capillare, che potesse essere disponibile ai più.
E, in questo scenario in cui la stampa su carta ha reso semplice la diffusione del pensiero e l’universalizzazione della cultura umana, avvicinando culture planetarie altrimenti separate da limiti geografici, di lingua e culturali, l’Uomo, al termine di un’evoluzione culturale figlia della scienza e della ragione, arriva a contemplare quello che Nietzsche chiamava “l’abisso”, quello su cui è metaforicamente teso il cavo tra la bestia e l’Übermensch. Usciti dai secoli medievali in cui la religiosità permeava l’essere umano in ogni settore, e abbracciato il nuovo spirito illuminista sorretto dal pensiero kantiano, l’uomo “nuovo” si trova ad affrontare la perdita di scopo: muore Dio, muore il fine ultimo della vita. Questo spartiacque si presentò con chiarezza all’uomo occidentale alla fine dell’Ottocento, quando ormai il suo mondo era stato trasformato indelebilmente e i suoi ritmi di vita si erano uniformati e adagiati al pulsare e al vibrare delle macchine, dell’energia elettrica, del movimento.
Al pari delle grandi rivoluzioni scientifiche, però, e delle loro dinamiche, che necessitano sia di nuovi strumenti che di nuovi paradigmi prima di essere lanciate, l’essere umano al cospetto di questo abisso si è fermato di fronte all’impossibile da concepire perché ancora privo di strumenti e privo, appunto, di nuovi paradigmi. L’attesa superomistica si era arenata.
Dopo i Regni e gli Imperi, le Oligarchie e le Tirannidi, dopo Assolutismi e Rivoluzioni, Restaurazioni e di nuovo Imperi e Monarchie, come risposta all’assenza di nuovi paradigmi, una rivoluzionaria forma di gestione della polis era emersa in Europa solo verso la metà dell’Ottocento. Una filosofia politica totalmente diversa da ogni precedente, fondata sulla ragione e sulla logica, sull’economia e sul principio fondamentale che l’uomo è eguale a chiunque altro e ha pari diritti e pari doveri. E sul rifiuto della proprietà privata. Quest’impianto ideologico sperimentale era iniziato a circolare prima in Europa e poi nel resto del mondo grazie alla diffusione capillare delle informazioni su carta stampata.
Nel 1918 la Rivoluzione Russa accolse questo modello ideologico e lo fece diventare il fondamento del nuovo Stato: fu il primo tentativo della storia di affrancare l’uomo da un modello politico verticistico ereditario con uno apparentemente egualitario. L’illusione durò poco. Il sistema sovietico si rivelò assolutista tanto quanto quelli che aveva combattuto, dal “politburo” emerse la figura tirannica del “segretario del partito” e, al pari di un qualsiasi monarca, a lui venne delegato lo scettro del potere per tenerlo a vita. Il modello ideologico comunista venne utilizzato in altre rivoluzioni: dalla Cina alla Corea, dal Vietnam alla Cambogia. In nessuno di questi casi riuscì a tenere alla larga le tentazioni tiranniche del segretario di turno, e il fallimento si può misurare nel numero incalcolabile di vittime del sistema.
All’inizio del Novecento altre forme di tirannia o di totalitarismo sprigionarono da quel catino di insoddisfazione, di fatica e di litigiosità secolare che era l’Europa. Complice una vittoria dimezzata dai trattati di Versailles e dalla crisi economica profonda che il primo dopoguerra aveva portato, e dall’inadeguatezza del monarca reggente Vittorio Emanuele III, nel giro di tre anni dalla fine della Prima guerra mondiale il fascismo irruppe in Italia e nell’intero continente affascinando e conquistando favori anticomunisti, che erano maggioritari in Europa[2]. Contemporaneamente, nella nuova Europa ridisegnata da Versailles gli Imperi centrali (Prussia, Austria-Ungheria e Germania) si mossero allo stesso modo, parimenti delusi e vessati dalle conseguenze della sconfitta della Grande guerra. L’ascesa delle camicie brune e del nazional-socialismo di Adolf Hitler seguirono percorsi analoghi, venendo legittimati da elezioni e investiture ufficiali. Mussolini era diventato Presidente del Consiglio nel 1922 e Hitler Cancelliere del Reich nel 1933. Le elezioni a suffragio universale, una forma di democrazia moderna, portarono al potere due tiranni che rimasero in carica sino alla loro destituzione forzata o alla loro morte.
Al di fuori dell’Europa, gli Stati Uniti hanno rappresentato una variante unica nel panorama degli assetti politici e dei sistemi di governo. La loro democrazia prese forma sin dalla Guerra d’Indipendenza dall’Impero Britannico (1775 – 1783) e da allora non ha mai cessato di esistere nella forma e nella sostanza. Gli USA sono stati laboratorio democratico per eccellenza, e il successo della loro forma di governo ha attraversato i secoli e le guerre (guerra di secessione, guerre mondiali, Corea, Vietnam ecc.) grazie fondamentalmente alla loro Costituzione, che garantisce le più ampie libertà riducendo all’osso l’intervento centrale dello Stato, ma anche alle politiche espansionistiche, di occupazione dei gangli mondiali di produzione energetica e delle materie prime; all’egemonia culturale imposta nell’intero continente americano e all’Europa occidentale, alle politiche militari. La forma democratica degli Stati Uniti genera ricchezza e opportunità per il privato e qui (esattamente all’opposto di quanto accadeva nell’URSS) la proprietà privata è considerata sacra e inviolabile.
Arrivi e partenze
In questo scenario storico, di cui la seconda parte del Novecento, con tutte le sue guerre, è figlia legittima, la data del 1993, anno di diffusione del codice del WWW, è probabilmente uno spartiacque tra un “prima” e un “dopo”, tra un mondo in cui l’informazione era capillare ma poteva essere scelta, selezionata, utilizzata dal singolo utente (quotidiani, riviste, libri, radio e televisione) e quello di oggi dove l’informazione è interstiziale e pervasiva, onnipresente e parte del modello di vita, nonché necessaria per poter vivere (la “rete”). C’è stato un prima, in cui era possibile ancora con una certa facilità selezionare le fonti, le informazioni e sia la qualità che l’intensità dei dati in ingresso; e un dopo, in cui siamo letteralmente inondati e sommersi da dati senza la possibilità di discernimento, di argine, di selezione. Nel giro di trent’anni abbiamo conosciuto la più grande accelerazione nella diffusione delle informazioni dall’avvento del torchio da stampa, e in modo così repentino e privo di filtri da averci letteralmente travolto. Inevitabilmente questo scenario ha influito direttamente sia sul pensiero politico che sul modo in cui la politica opera.
Per poter essere efficace, il modello democratico emerso dalle macerie della Seconda guerra mondiale doveva poter contare almeno su un caposaldo inalienabile: libertà d’informazione e libero accesso alla conoscenza. Ed è stato garantendo la libertà di stampa nei dettati costituzionali che le grandi democrazie occidentali l’hanno difeso. Certo, con alti e bassi, deviazioni e commissioni d’inchiesta, depistaggi e tentativi di golpe. Ma in generale è stato portato avanti con successo. Sebbene la nostra percezione ci possa far credere il contrario, oggi le nazioni che hanno optato (più o meno volontariamente) per questo modello sono circa il 63% tra quelle riconosciute. Un buon 37% circa, invece, sono regimi dittatoriali[3].
Tra le dittature civili, che sono circa il 75% delle dittature (Carbone, 2018), una parte sono sistemi politici chiusi, personali (Corea del Nord) o a partito unico (Cina); il resto sono “autoritarismi elettorali”, egemonici (Singapore, Angola) o competitivi (Turchia, Russia)[4]. Attualmente i conflitti armati nel mondo, di qualsiasi natura, coinvolgono 69 stati, dalle rivolte interne (religiose, economiche ecc.), a conflitti tra nazioni e truppe regolari. Solo il 36% degli stati coinvolti in azioni militari non appartengono alle dittature (monarchie, regimi militari, regimi civili). È evidente la relazione tra sistemi politici non democratici e instabilità, conflitti, guerre.
Questo è lo scenario della contemporaneità. Ed è in questo sistema complessivo sbilanciato che è giunto il dominio dell’informazione pervasiva e interstiziale che è stata usata sia come strumento che come arma. Nel 2016 Nancy Bermeo introduce il fenomeno del “backsliding” (de-democratizzazione) di stati democratici, in cui si evidenzia la “debilitazione o eliminazione, da parte dello Stato stesso, di una o più delle istituzioni politiche che sostengono una democrazia esistente” (Bermeo, 2016). Questi colpi di stato morbidi avvengono attraverso golpe promissori, ampliamenti dell’esecutivo e lunga strategia di sottile manipolazione.
Ed è esattamente qui che informazione, conoscenza, potere e tecnologia vengono a sintesi.
Ottava (o terza?) età tecnologica
La stampa, e più in generale la concezione della “macchina” come strumento complesso, è in grado non solo di svolgere compiti ripetitivi ma anche di uniformare il manufatto e standardizzarlo, livellando le sue prestazioni verso l’alto. La forma-libro, il quotidiano, la rivista, il feuilleton sono prodotti sempre più sofisticati.
McNeil (1990) identifica sette età tecnologiche che hanno rivoluzionato lo sviluppo e l’evoluzione umana. Le prime due riguardano la tecnologia litica, lignea e successivamente quella del ferro e dei metalli. Dalla terza in poi, quella già citata delle macchine (1455)[5], passando per la produzione in serie e il vapore (1760), i motori a combustione (1853) e la generazione di energia elettrica (1870), l’atomo (1942) e infine l’elettronica e informatica (1962), sono età che si sono susseguite in tempi sempre più ravvicinati. Con sguardo prospettico possiamo ridurle per comodità a due epoche: quella precedente alla produzione in serie attraverso l’uso di macchine e quella successiva.
Queste evoluzioni non si sono uniformemente sviluppate in tutto il pianeta attraversando le varie società, regimi e culture. Al contrario si sono concentrate in aree ristrette (Europa occidentale, Stati Uniti e nel dopoguerra URSS e nazioni controllate dal patto atlantico e dal blocco sovietico). Questa differenza si è accresciuta sempre di più nel corso dei decenni e dei secoli, marcando distanze tecnologiche e culturali incolmabili per intere aree planetarie. Il caso africano è emblematico. Uno dei continenti più vasti e ricchi del pianeta è stato colonizzato, sfruttato e messo a profitto senza coinvolgere le popolazioni native, anzi sfruttandole e isolandole. Le conoscenze scientifiche e le competenze tecnologiche sono state usate come vere e proprie armi per controllare e soggiogare intere popolazioni con metodi autoritari e violenti. L’intero modello basato sulla falsa identificazione e separazione in “razze” umane fu sostanzialmente approvato e condiviso per giustificare atrocità senza limiti e sfruttamenti criminali. Il periodo coloniale, Italia inclusa, è stato caratterizzato da una narrazione distorta e da teorie sulla “superiorità della razza” che erano diffuse alla popolazione attraverso libri e giornali, e oggetto di didattica scolastica.
Il secondo dopoguerra, con l’ingresso della civiltà umana nell’era atomica, la presa di coscienza della natura distruttiva delle armi e della tecnologia sviluppata, la prospettiva concreta di un’annichilazione della vita umana sul pianeta a causa di una guerra termonucleare, vide uno spettacolare sviluppo di tecniche di guerra fredda che mantennero altissima l’efficienza tecnologica militare, dual use e spaziale, con ricadute significative nell’industria civile. L’elettronica, l’ultimo step tecnologico, divenne progressivamente il comparto su cui venivano dirottati i maggiori finanziamenti per lo sviluppo delle nuove tecnologie.
Alla fine degli anni Settanta comparvero sul mercato le prime calcolatrici tascabili programmabili (HP e Texas Instruments), mentre i primi personal computer vennero immessi sul mercato all’inizio degli anni Ottanta (IBM e Apple). Da quel momento la tecnologia legata ai processi di controllo e alla programmazione automatizzata su calcolatori divenne imprescindibile. Fu come dotare le macchine di un sistema nervoso centrale, facendo compiere passi da gigante alla meccanica di precisione, aumentando di parecchi ordini di grandezza l’efficienza, e creando un’intera branca di tecnologi (gli informatici) dedicati alla programmazione (e in prospettiva alla creazione dell’IA).
L’ottava età[6] è questa. E non ci sono dubbi che lo sia, in quanto su 7,6 miliardi di abitanti ben 4,3 sono navigatori o utenti della rete. Le attuali infrastrutture pubbliche funzionano grazie alla rete, ne sono controllate e gestite e ogni cittadino è inserito, codificato e gestito al suo interno.
Esistono ancora luoghi del pianeta dove non è possibile connettersi, e il motivo è per lo più legato alle assenze di infrastrutture (es. Burkina Faso) o a scelte politiche (es. Corea del Nord). Ma è altrettanto vero che il leapfrogging, ossia il principio secondo cui aree tecnologicamente poco sviluppate sono in grado di mettersi a pari in breve tempo saltando tutte le fasi intermedie, consentirebbe loro di connettersi molto velocemente e di entrare in rete superando il ritardo saltando i passaggi intermedi molto velocemente.
Criticità
In questo quadro anche la forma (e la sostanza) della scienza politica subisce necessariamente trasformazioni. L’uso della rete nei regimi democratici liberali segue le stesse norme che regolano la libera stampa e la diffusione della conoscenza, e poche sono le limitazioni, legate fondamentalmente alla violazione di leggi sulla diffamazione, lo stalking e poco altro. La libertà di opinione e di parola è garantita costituzionalmente e l’accesso alla rete e alle informazioni ivi contenute altrettanto.
Il valore aggiunto della rete è però quello di garantire a tutti gli utenti la partecipazione diretta inserendo o modificando contenuti, siano essi testi, audio o video. Ed è la dimensione e la capillarità della rete che modifica sostanzialmente il quadro. Perché è possibile in tempo reale comunicare attivamente con uno o decine di persone, o migliaia, su tutto il territorio nazionale e oltre. L’interconnessione è totale.
La differenza fondamentale tra Gutenberg e Berners-Lee è questa: la stampa è uno strumento passivo, internet no. E, allo stesso tempo, questa differenza caratterizza la dipendenza o l’indipendenza del mezzo dal vettore energetico. Perché senza energia elettrica internet non esiste, la stampa sì.
I principali ostacoli che questa nuova forma di democrazia deve superare sono legati alla dimensione umana e tecnologica del problema.
Formazione
L’alta formazione e la trasparenza dell’informazione mediata sono fondamentali in questo quadro. Non è possibile immaginare di pilotare un mezzo così sofisticato senza le necessarie competenze, senza una profonda conoscenza del mezzo stesso e degli strumenti di guida e di navigazione. Chiunque si approcci a questo strumento non può permettersi di essere uno sprovveduto. Perché ancor prima delle competenze politiche (nella sua accezione più nobile e ampia, sociale, antropologica, filosofica, storica, economica ecc.) in questo quadro sono necessarie competenze tecniche, informatiche e scientifiche. Perché questo strumento è immerso e interlacciato con la rete, dipende dalla sua struttura, dalla sua gestione, dai software e dall’hardware, dall’energia necessaria per il suo funzionamento, dalle IA in controllo, dai sistemi di difesa antintrusione e dai sistemi di riconoscimento, sicurezza e trattamento dei dati ecc. Senza una competenza specifica in questi settori, il politico rischia di non conoscere il mezzo che sta pilotando, lo strumento del suo lavoro con rischi potenzialmente catastrofici.
Energia
Nel 2019 l’intera struttura che sostiene internet (computer, server, ripetitori, data center, impianti di raffreddamento ecc.) assorbe circa 3 TW, il 10% dell’energia prodotta nel mondo ogni anno, e il dato è in crescita costante (3 TW è l’energia media prodotta da circa un centinaio di centrali elettriche). Al ritmo attuale potrebbe arrivare in proiezione a raggiungere il 25% tra quindici anni.
I salti tecnologici e le dinamiche politiche nelle diverse aree del pianeta ancora poco sviluppate potrebbero contribuire sia aumentando che diminuendo la richiesta energetica. Ma storicamente una riduzione del consumo specifico non fa che aumentare la domanda e quindi il beneficio è solo limitato nel tempo, destinato comunque a crescere.
La democrazia diretta basata sulla gestione delle informazioni attraverso la rete, quindi, dipende per la propria esistenza dalla produzione costante e ininterrotta di energia elettrica. I rischi connaturati a una dipendenza vitale da una fonte di approvvigionamento la rende inevitabilmente debole. Strategicamente chiunque possieda la fonte d’energia o sia in grado a piacimento di ridurre, modulare o interrompere il flusso energetico necessario alla rete per autosostentarsi si troverebbe in una posizione dominante. Ciò priverebbe il modello di una delle sue caratteristiche più peculiari: l’indipendenza.
Sicurezza
Questione cruciale legata all’applicazione dei principi fondamentali della democrazia diretta, ovvero la trasmissione dei dati attraverso la rete, è quella dell’information security. Definita in modo generico come l’insieme di tecnologie e programmi volti a garantire la sicurezza dello scambio di informazioni, è un enorme campo di studio in continua espansione. Ed è un’area d’investimento primaria, perché la banalità del furto d’informazione, in quest’ottica, rappresenta solo la punta dell’iceberg, tanto che colossi dell’informatica come Google e IBM stanno investendo percentuali significative del loro bilancio nella ricerca di sistemi hardware e software in grado di garantire la sicurezza informatica[7].
Introduciamo il concetto di meta-uomo, o di organismo iperconnesso. Ovvero un’estensione dell’essere umano vivente visto come soggetto, nodo, di una rete interconnessa. I cui gangli, le cui sinapsi, al pari di vene e arterie che pompano sangue dentro il corpo umano, pompano informazioni tra soggetti, nodi. Tali informazioni viaggiano all’interno di queste reti capillari confluendo in dotti principali per poi effluire perifericamente e raggiungere il luogo prefissato. Questo luogo può essere un altro essere umano connesso o un server, una macchina che deve raccogliere il dato ed eseguire delle operazioni con esso o archiviarlo.
Queste informazioni che viaggiano con il sangue elettronico che alimenta la rete possono essere parassitate in molti modi e con finalità diverse: dall’osservazione dei dati alla loro raccolta, furto, manipolazione eccetera. L’unica protezione attualmente in uso è la loro crittografia attraverso chiavi simmetriche e asimmetriche, ma non c’è nessuna garanzia che le chiavi non possano essere intercettate e i messaggi decifrati. I sistemi di crittografia fondano la propria “relativa” sicurezza sul fattore tempo: le chiavi sono sufficientemente complesse, e per essere decrittate necessitano di grande potenza di calcolo e molto tempo a disposizione. Ma, e questo è certo, nessuna di loro è intrinsecamente sicura e quindi sarà violata.
Questo modello potrebbe essere soppiantato entro i prossimi cinque anni dalla crittografia quantistica, che, grazie alla possibilità di potersi scambiare chiavi “entangled” impedisce fisicamente qualsiasi tentativo di intrusione, anche passivo (eavesdropping) permettendo quindi uno scambio sicuro di dati (Rota, 2004).
I costi hardware di un computer basato sui qbit, quindi genericamente definito quantistico, sono ancora molto elevati. Non è ancora possibile immaginare una capillarizzazione del mercato come è avvenuto negli ultimi venticinque anni per i PC, le difficoltà tecniche non sono ancora risolte completamente ed è possibile che simili macchine possano diventare il core di datacenter a cui i singoli utenti si connetteranno in modo classico. La sicurezza, quindi, della trasmissione del dato, non può essere garantita finché il percorso seguito dal dato stesso non inizierà e terminerà all’interno di un sistema a qbit. Il primo e l’ultimo miglio resteranno, in quest’ottica, ancora terre incognite in cui potranno annidarsi i pericoli.
Ciò che emerge, quindi, da quest’ultima considerazione sulla sicurezza del dato, è che le organizzazioni partitiche che dovessero operare in un regime di democrazia diretta in rete dovranno necessariamente dotarsi di sistemi di controllo della sicurezza informatica, e poiché le risorse necessarie per avere simili sistemi hardware, software e competenze umane sono molto costose e complesse da gestire, la strada obbligata sarebbe quella di appoggiarsi a strutture private già attrezzate e con le competenze necessarie (che è ciò che sta avvenendo anche se in modo non ancora organico). Non sarebbe possibile per nessuna organizzazione partitica poterne fare a meno senza correre il rischio di essere completamente nudi e impreparati di fronte alle minacce informatiche della rete. Che, in quest’ottica, diventerà il mezzo e il territorio in cui il conflitto politico verrà esercitato in tutte le forme che la comunicazione (e la legge) consentirà.
IA: dal machine learning al warfare
Al di là dei principi di Asilomar o delle Linee Guida Etiche sull’intelligenza artificiale dell’Unione Europea, l’arrivo di una forma di Intelligenza Artificiale (IA) in grado di supportare il pensiero umano e coadiuvarlo, per poi progressivamente sostituirlo nei compiti che richiedono analisi di innumerevoli dati e doti previsionali fondate sul calcolo ponderato delle probabilità, ormai non è più solo un auspicio (o un timore) di qualcuno ma una solida realtà. I principi etici di riferimento sono chiari e ampiamente condivisi dalla comunità internazionale, sia politica che scientifica. Ma restano falle non facilmente tamponabili.
La prima, e più attuale, è quella che vede protagonista la stagione delle fake news e delle strategie di comunicazione politica che ne fanno ampiamente uso. In un precedente articolo avevo analizzato i rischi di un modello di comunicazione alterato artatamente che conduceva inevitabilmente a una patologia sociale che si autoalimentava. Sistemi di IA opportunamente programmati non solo funzionerebbero da amplificatori ma, soprattutto, da strateghi della comunicazione, anticipando e gestendo efficacemente dati e analisi nell’ottica dell’ottimizzazione del risultato. Se una IA viene messa al servizio della politica dandole questi strumenti che inquinano l’ecosistema digitale (il meta-uomo, l’intero meta-organismo digitale) inoculando tossine, il risultato sarà quello di ottenere risultati elettivi e/o decisionali inevitabilmente drogati. Il concetto dev’essere chiaro: se saranno i dati a modellare il processo decisionale politico, dati drogati modelleranno processi politici deviati.
La seconda è l’inevitabile “datacrazia” che ne scaturisce, ovvero un “governo compiuto tramite i dati”, che sarà altro rispetto all’idea di democrazia diretta alternativa a quella rappresentativa e sostanzialmente analoga come concetto (de Kerchove, 2016). L’esempio di Singapore, come prototipo di città-stato precursore del controllo capillare attraverso i dati e la loro elaborazione, è illuminante. Lo smartphone connette il cittadino e permette la raccolta dei dati in modo costante e continuativo in modo capzioso se non forzoso. La linea politica si adatta all’analisi dei dati raccolti permettendo ai decisori di legiferare, di operare e modificare l’assetto repressivo quasi in tempo reale.
Sebbene si trovino ovunque raccomandazioni e warning all’uso indiscriminato di sistemi che portano al controllo dell’IA, già a partire dalle evoluzioni del machine learning, il fatto che esistano nel mondo modelli di democrazia rappresentativa come quella di Singapore dove la gestione dei Big Data da parte governativa trasforma una democrazia in una forma spuria di società controllata da un “grande fratello” digitale fa emergere chiaramente il rischio che corre la democrazia come forma di governo quando (necessariamente) trasforma la propria cifra rappresentativa e diventa diretta.
Speculazioni future e conclusioni
In un futuro privo di controlli e limiti, le piattaforme digitali che funzionano da collettore di dati e da snodo di rete potranno, di fatto, sostituirsi ai partiti tradizionali. Perché saranno sempre le prime ad avere i dati di accesso, le preferenze, le scelte, le decisioni, le opinioni, le reazioni dell’elettorato rispetto ai temi proposti. E quindi saranno in grado di interpretare al meglio le preferenze della base e soprattutto in tempo reale, eventualmente guidando e pilotando l’opinione pubblica. Grazie al perfezionamento delle IA, diventerà sempre più facile gestire strategie di medio-lungo termine, lanciare campagne, radicarsi nell’opinione pubblica. In pratica, sostituirsi al partito e ai suoi reggenti. La figura del “leader” diventerebbe fondamentalmente quella del “testimonial”, la segreteria sostituita da una piattaforma di voto on line e la linea del partito diventerebbe anche la “ragione sociale” della piattaforma. La pianificazione strategica dell’azione politica verrebbe assunta dalla IA.
In un tale scenario di resa politica, non sarebbe difficile pensare a come la pervasività di molte corporation oggi esistenti aumenterebbe esponenzialmente, arrivando a invertire il rapporto di potere della politica sull’economia (in alcuni casi già oggi piuttosto leggero) proponendosi come novelle “Compagnie delle Indie” in grado di solcare i mari digitali del pianeta, e agire come longa manus delle nazioni in analogia con quanto veniva fatto nel XVII e XVIII secolo, quando tali corporazioni avevano orientato sia la politica estera che l’assetto economico di buona parte del pianeta arrivando anche a spingere nazioni in guerra e a combatterle.
I conflitti, per la maggior parte dei casi, saranno totalmente digitali. IA contro altre IA, come, peraltro, in forma ridotta e locale, sta già avvenendo oggi tra gli attori più tecnologicamente evoluti del pianeta, USA e Russia (ma non solo). Il tutto, magari, nell’attesa messianica di una singolarità tecnologica che arrivi a liberare il genere umano dalla propria incapacità di gestirsi su questo pianeta (Bonisoli, 2020).
I rischi di un passaggio alla democrazia diretta in tempi di tecnologie informatiche sviluppate in rete come i nostri, quindi, sono vari e non tutti facilmente disinnescabili. Quello che sembra certo è che la competenza tecnica e scientifica degli attori politici contemporanei e che si candideranno prossimamente non può più essere considerata secondaria. Anche i cicli di studi che preparano e formano alla politica, alla sociologia delle masse e all’antropologia sociale dovrebbero iniziare ad attrezzarsi. Perché in mancanza di tali strumenti intellettuali il politico, la corrente, il movimento e il partito dovranno farsi affiancare necessariamente da una struttura (privata?) che sia in grado di colmare le lacune del gruppo. E i rischi li abbiamo elencati.
Nel prossimo futuro l’interferenza e l’attrito tra i due diversi modelli verrà aumentando. In parte perché l’intera società sta burocratizzandosi attraverso questi nuovi strumenti, in parte perché la crisi della rappresentanza si sta facendo via via più forte in tutti i paesi democratici.
Sarebbe assai opportuno che la Commissione Europea aprisse un tavolo comune (al pari del CEN, il Comitato Europeo di Normazione) per studiare quali saranno gli sviluppi, i controlli e i limiti all’affacciarsi di questi nuovi modelli democratici, in grado di guidare omogeneamente la transizione comunitaria e arginare eventuali fenomeni estremi.
A giudicare dai dati, non si tratterà di sapere se avverrà tale transizione, ma quando e come.
Riferimenti
- Bermeo N., On Democratic Backsliding, “Journal of Democracy”, vol. 27 n. 1, gennaio 2016.
- Bonisoli L. La singolarità tecnologica come nova religio, “Futuri”, 3 giugno 2020.
- Carbone G., I regimi non democratici. Classificazioni e dinamiche politiche, Università di Milano, 2018. (dispensa)
- De Kerckhove D., Il governo delle macchine, lo spettro della “datacrazia”, “Avvenire”, 12 novembre 2016.
- McNeil I., An Encyclopedia of the History of Technology, Routledge, 1990.
- Olson M., Dictatorship, Democracy, and Development, “American Political Science Review”, vol. 87 n. 3, 1993.
- Rota R., Crittografia Quantistica, Università di Roma Tre, 2004. (dispensa)
Note
[1] Antropologi hanno trovato tracce di questo modello decisionale in gruppi preistorici di cacciatori raccoglitori, clan di 50-100 persone che decidono a maggioranza attorno a un fuoco. Secondo Jacobsen, nella Mesopotamia di Gilgamesh ci furono dei tentativi di contrastare l’oligarchia con modelli protodemocratici in cui si allargava la base decisionale a più persone e c’era una procedura simile a un voto a maggioranza.
[2] L’esperienza di Francisco Franco in Spagna s’inserì in questo solco. Fino al 1943 la diarchia tra Mussolini e Vittorio Emanuele riuscì a reggersi, per essere spazzata via dal bagno di realismo causato dalla sconfitta su ogni fronte bellico aperto, dalla perdita delle colonie africane e balcaniche e dal voltafaccia del sovrano.
[3] I regimi dittatoriali possono essere network familiari o monarchie (Qatar, Oman, Arabia Saudita, Swaziland, Giordania ecc.); giunte o regimi militari (Thailandia, Egitto, Mauritania ecc.); partiti unici o regimi civili (Corea del Nord, Cina, Tajikistan, Zimbabwe ecc.) . Il totale delle dittature (2017) è di 72, di cui la grande maggioranza sono regimi civili a partito unico.
[4] Le percentuali ci dicono che questi sistemi non sono in crescita, ma in leggero e costante calo. Oggi il fenomeno della “ridemocratizzazione” dopo un colpo di stato porta a elezioni entro cinque anni nel 75% dei casi, mentre nel secondo dopoguerra e fino al 1990 rappresentava solo il 25% dei casi.
[5] L’inizio dell’età della macchina, secondo McNeil, coincide con l’invenzione dei primi torchi da stampa e degli orologi, ed è responsabile della “disseminazione della conoscenza”.
[6] O terza era: la prima è “preproduzione industriale di serie”, la seconda è “post produzione industriale di serie” e la terza è “produzione industriale di serie automatizzata e controllata da IA”. Il presidio umano si limita alla creazione e alla gestione dell’IA mentre tutto il rimanente è autonomo e meccanizzato.
[7] Poiché buona parte del futuro warfare si baserà sulla capacità di intercettare e/o manipolare le informazioni in rete, qualsiasi investimento privato in questo settore deve essere considerato dual-use, e quindi sempre e comunque oggetto di revisione critica da parte nostra. Siamo in prossimità della frontiera, e solitamente le regole, da quelle parti, non vengono rispettate per definizione.