Anche se l’era dei robot antropomorfi come li immaginava Isaac Asimov nelle sue storie è ancora fantascienza, negli ultimi anni sempre più voci autorevoli hanno messo in dubbio il ruolo che gli esseri umani giocheranno in futuro in molteplici campi. Già oggi diamo per scontata, del resto, l’automazione in settori che vanno dal casello autostradale alla catena di montaggio delle autovetture. Meno visibile, ma ugualmente affermatasi, è la presenza della robotica nella chirurgia di precisione. Questo tipo di automazione, tuttavia, non è nuovo, risale anzi agli albori dell’era industriale: un telaio meccanico permette di velocizzare il lavoro ed eliminare figure professionali che non occorrono più (scatenando la comprensibile reazione di personaggi come il leggendario Net Ludd che, nel distruggere uno di questi telai, diede vita al movimento del luddismo). Al Gore, nel suo recente libro Il mondo che viene, descrive questo fenomeno con il termine robosourcing, che parafrasa il più noto outsourcing: è un’altra versione dell’esternalizzazione del lavoro, che porta ad affidare a un robot anziché a un essere umano un compito da svolgere. Il robosourcing non ha davvero prodotto un impatto significativo, in termini negativi, nei livelli occupazionali come molti temevano, almeno fino a oggi. Anche se è innegabile che alcune figure professionali siano quasi completamente sparite, la diffusione dell’automazione ha aumentato il numero di occupati nel terziario avanzato, in quel settore cioè che traina il progresso di un paese ed è composto da figure altamente scolarizzate ad elevata qualificazione. Dopotutto, per costruire un robot che prenda il posto di un operaio in una catena di montaggio occorrono pur sempre numerose persone che inventino, costruiscano e programmino il robot.
Siamo ora entrati in una fase in cui il robosourcing potrebbe attentare proprio ai quei posti di lavoro nel terziario avanzato che lo sviluppo dell’informatica e dell’automazione hanno permesso di incrementare. Almeno, questo è quello che temono diversi osservatori. Ciò dipende in buona parte dall’aumento della complessità di diversi settori, come quello della finanza. La maggior parte delle transazioni di borsa, nonché di prodotti finanziari estremamente complessi come i derivati che hanno portato allo scoppio della crisi economica del 2008, è gestita oggi da computer. Anche se probabilmente non vedremo mai robot antropomorfi con la toga da avvocato o impegnati a fare trading, questo non significa che in questi ambiti professionali non sia in corso una forte penetrazione dell’automazione; proprio perché non assume le forme che associamo generalmente al robosourcing, non ce ne accorgiamo.
Coloro che lavorano nei settori della ricerca di frontiera sanno già perfettamente quanta parte del lavoro oggi è svolta dai computer. In settori come la fisica e la matematica, la complessità crescente fa sì che ormai molti dei concetti teorici da manipolare e dei calcoli da eseguire siano al di là della comprensione umana. È noto il caso del supercomputer che permise, negli anni ’70, di dimostrare matematicamente l’apparentemente semplice congettura dei quattro colori (secondo cui in una superficie divisa in sezioni, come un planisfero politico diviso in stati, bastano quattro colori per distinguere tutte le sezioni senza che ci siano due aree contigue con lo stesso colore). La dimostrazione matematica finale consisteva in quasi cinquecento pagine di calcoli, che nessun essere umano avrebbe forse saputo realizzare. In ambiti come la topologia, la fisica delle stringhe e altro ancora, non è pensabile compiere passi avanti senza l’uso di supercalcolatori.
Samuel Arbesman, ricercatore all’Institute for Quantitative Social Science dell’Università di Harvard, scommette che entro venti o trent’anni un computer potrebbe essere insignito del premio Nobel per una scoperta scientifica. Molti esperti, tuttavia, sono scettici. Dopotutto, un conto è l’automatizzazione di una serie di calcoli o di passaggi complessi che richiederebbero, per essere svolti, intere vite umane; altra cosa è avere un computer in grado di realizzare un’autentica scoperta. La scoperta, il momento dell’eureka, è per definizione associato all’intuizione: una facoltà che le più avanzate intelligenze artificiali sono ben lontane dal possedere. Inoltre, un computer è soggetto alla programmazione da parte di un essere umano. Se la programmazione di partenza è sbagliata, probabilmente lo sarà anche l’output finale. Una cosa del genere accadde negli anni ’90, quando venne elaborato un programma informatico molto avanzato per testare una congettura matematica sulle superfici a molte dimensioni, che diversi fisici teorici avevano, intuitivamente, giudicato corretta. Il computer la giudicò falsa, ma si era sbagliato, perché conteneva un errore di programmazione.
Si ritiene che, approssimativamente, il nostro cervello sia in grado di svolgere operazioni a circa 1-2 exaflop, ossia un miliardo di miliardi (1018) di operazioni in virgola mobile al secondo, esprimendoci nella scala della CPU, la cui unità di misura della velocità di calcolo è espressa in flop. Attualmente i supercomputer più avazanti raggiungono l’ordine dei petaflop (1015). Ma comparare macchine ed esseri umani in questo modo è fuorviante. Lo sviluppo tecnologico renderà presto possibile realizzare supercomputer da un exaflop; la IBM e altre grandi aziende di informatica stanno già lavorando su progetti del genere. La difficoltà di creare un’intelligenza artificiale in grado di svolgere non solo il calcolo bruto, ma anche il ragionamento creativo alla base di una scoperta scientifica, deriva, secondo diversi esperti, tra cui il celebre fisico Roger Penrose, dal fatto che il pensiero intuitivo è non-algoritmico, laddove qualsiasi operazione svolta da un computer tradizionale è basata su algoritmi.
Un altro caso rilevante riguarda l’esplorazione dello spazio. La convinzione che l’esplorazione spaziale possa essere svolta con maggiore successo da sonde robotiche piuttosto che da esseri umani è così diffusa tra gli addetti ai lavori che anche importanti pionieri della ricerca spaziale europea – tra i quali l’italiano Carlo Buongiorno, scomparso di recente, e il francese Jacques Blamont – hanno sostenuto che in futuro l’attività umana nello spazio sarà ridotta al minimo indispensabile, essendo inutile e dispendiosa se confrontata con la robotica. Si tratta, invece, di un’affermazione priva di basi reali. Il perché lo dimostra anche, semplicemente, l’esempio di Marte. Nonostante sul pianeta rosso siano state spediti finora con successo quattro rover e diversi lander fin dagli anni ’70, siamo ancora lontani dall’ottenere una risposta sulla presenza di acqua sul pianeta; tanto meno sulla possibile presenza, nel sottosuolo, di microrganismi vivi o fossili. Una spedizione umana sarebbe in grado di rispondere a questi quesiti in pochi giorni di esplorazione. In due giorni di lavoro sulla Luna, gli astronauti dell’Apollo 17 hanno fatto più strada di quanta ne abbia percorsa il rover Curiosity in dieci anni di missione su Marte.
Un dato ancora più rilevante riguarda il valore dei dati ottenuti dalle missioni umane Apollo sulla Luna. Non solo gli astronauti hanno raccolto, nel corso delle loro missioni, quasi 400 chili di rocce lunari, contro gli appena 0,3 kg di rocce riportate sulla Terra dalle sonde sample return (raccolta e ritorno automatico di campioni). Ma il numero di pubblicazioni scientifiche basate sui dati delle missioni Apollo è di quasi 3000, laddove le pubblicazioni basate sui dati di tutti i rover lunari e marziani (Curiosity escluso) non supera i 500. È chiaro allora che i robot producono molto meno scienza e conoscenza, nel settore dell’esplorazione spaziale, di quanto si ritenga abitualmente. Certamente, i costi di una missione automatica sono enormemente inferiori a quelli di una spedizione umana. Se non abbiamo ancora mandato astronauti su Marte, è perché nessuna nazione è in grado di accollarsi i costi altissimi di una simile operazione. Sostenere però che non lo si faccia perché i robot sono più efficienti ricorda molto la favola della volpe e dell’uva.
Fino a un po’ di anni fa, l’immaginario futuristico ragionava su come rendere gli esseri umani più simili alle macchine, per perfezionarli sia a livello di forza fisica che, soprattutto, di capacità intellettive. Oggi la scienza lavora sull’esatto opposto: su come, cioè, rendere le macchine più umane. La pinza di un robot sarà sempre meno versatile di una mano umana, così come il computer più avanzato consumerà sempre più quantità di energia – molta di più – rispetto al nostro cervello (in termini di comparabilità, un cervello umano consuma intorno ai 20 watt giornalieri, rispetto ai 100 megawatt stimati per un calcolatore in grado di raggiungere la stessa potenza di calcolo). Il rover più avanzato impiega ore, se non giorni, a salire una piccola collinetta marziana, mentre un astronauta impiegherebbe qualche minuto. E mentre, in caso di cappottamento, il rover va considerato perso, un essere umano, in caso di caduta, è in grado di rialzarsi senza grande sforzo. Questa constatazione è oggi un dato acquisito per tutte le aree di ricerca che lavorano sull’automazione: materiali che imitano la nostra biologia e fisiologia (biomateriali), intelligenze artificiali in grado di imparare (mediante algoritmi evolutivi), interfacce uomo-macchina attraverso gli avatar costituiscono la nuova frontiera e dimostrano che, lungi dall’andare incontro al fenomeno del robosourcing che taglierà posti di lavoro, il futuro è in macchine più simili a noi. Difetti inclusi.
Per approfondire:
- Crawford I., Dispelling the myth of robotic efficiency: why human space exploration will tell us more about the Solar System than will robotic exploration alone, in “Astronomy and Geophysics” vol. 53, 2012.
- Gore A., Il mondo che viene, Rizzoli, 2013.
- Kurzweil R., Come creare una mente, Apogeo, 2013.
- Penrose R., La mente nuova dell’imperatore, BUR, 2000.
- Wolchover N., As Math Grows More Complex, Will Computers Reign?, “Wired”, 3 aprile 2013.