Viviamo tempi in cui si stanno verificando così tante trasformazioni, in un periodo così breve, che pare che, per dar loro un senso, si stia spesso cercando di concettualizzarli dando loro il nome di “era”. L’era della pandemia, l’era dell’informazione, l’era dell’incertezza, l’era dell’intelligenza artificiale, l’era dei big data sono solo alcuni ma frequentissimi esempi della tendenza di pensarci protagonisti di qualcosa di leggendario e mitologico: un’era. Sebbene possa apparire retorico, evidenzia tuttavia una necessità di trovare parole, nomi e metafore per esprimere rivoluzioni che, anche se a volte ancora prive di una definizione e caratterizzazione precisa, “sono nell’aria”. Nell’ambito della trasformazione digitale a cui stiamo assistendo, è evidente che nell’ultimo decennio hanno avuto luogo una crescente produzione, disponibilità ed interesse per i dati. Questa rivoluzione dei dati (Kitchin, 2014) sta avendo un impatto sempre maggiore sia sul mondo accademico che sugli ambienti professionali e aziendali. In un certo senso, così come chiamiamo le ere archeologiche a partire dai materiali che furono alla base del progresso tecnico di quel periodo – l’età della pietra, l’età del bronzo, l’età del ferro o la mitologica età dell’oro – oggi i dati sono così importanti che si si potrebbe riferire ai nostri tempi come l’età dei dati. I dati sono ovunque e, soprattutto, sono così preziosi che, ad esempio, la Commissione Europea ha recentemente elaborato una strategia per assicurare “la competitività e sovranità globale dell’Europa rispetto ai dati” (Commissione Europea, 2020). I dati sono il nuovo oro e il loro possesso, comprensione e utilizzo determinano il potere.
La disponibilità di dati ha consentito a scienziati e professionisti in tutti i campi di eseguire analisi ed estrarne conoscenza con un’efficacia senza precedenti. Nuove discipline sono nate sul terreno di quelle consolidate: è il caso della biologia computazionale, della fisica computazionale, della linguistica computazionale, della sociologia computazionale, della matematica computazionale, solo per citarne alcune. Sebbene i loro nomi affianchino un campo tradizionale con l’aggettivo “computazionale”, oggi queste discipline non sono solo il risultato di una giustapposizione di alcuni strumenti genericamente computazionali con gli abituali oggetti di indagine: stanno sviluppando le proprie epistemologie, nel senso che la dimensione computazionale sta determinando un cambiamento nel modo in cui queste discipline concepiscono la natura della conoscenza che producono o affrontano (Boyd e Crawford, 2012). A conferma che la novità computazionale non è (solo) tecnica, si assiste a una progressiva ascesa di nuove figure professionali che monitorano i processi che coinvolgono i dati per renderli più trasparenti, equi e rispondenti alle esigenze della società (O’Neil, 2017; Veale e Binns, 2017). Pertanto, si stanno strutturando “sul campo” nuove discipline scientifiche, con le loro pratiche, metodi, modi di produrre e valutare la conoscenza, obiettivi e valori (Dagher e Erduran, 2016).
In queste nuove discipline ad alto consumo di dati, il processamento rapido ed efficace dell’informazione è di cruciale importanza. Lo strumento abilitante per la maggior parte di tali applicazioni è il cosiddetto supercalcolo, termine con il quale si intende una famiglia di metodi ed approcci computazionali che permettono di superare ampiamente le performance di un comune elaboratore. Dal calcolo parallelo classico, passando per il cloud computing, fino ad arrivare agli approcci quantistici, il supercalcolo trova nei supercomputer l’oggetto-simbolo di questa trasformazione dell’approccio di calcolo che non sta impattando solo sul modus operandi nella ricerca e nell’innovazione industriale ma anche sulle politiche a livello internazionale. In questo senso, l’Unione Europea ha investito, negli ultimi 5 anni, sulla maggiore infrastruttura pubblica di supercalcolo del mondo, vedendo il supercomputer italiano Leonardo di Cineca e il finlandese Lumi nella top-10 per potenza di calcolo a livello globale (von der Leyen, 2023). Tale investimento sui calcolatori è accompagnato al finanziamento delle iniziative di sviluppo di tecnologie quantistiche tramite la Quantum Technologies Flagship entro la quale si costituiranno i primi computer quantistici pubblici a livello mondiale.
È questo contesto di grande accelerazione sociotecnica che ha portato alla nascita del progetto dell’Osservatorio sulle tendenze e le applicazioni del Supercalcolo (Osservatorio ICSC, 2024), un programma di ricerca finanziato dal Centro Nazionale in High-Performance Computing, Big Data e Quantum Computing, a sua volta realizzato entro la Missione 4 “Istruzione e Ricerca” del Piano Nazionale di Ripresa e Resilienza. In questo articolo, presentiamo l’approccio concettuale e metodologico alla base del progetto, con particolare attenzione al carattere future-oriented che ne caratterizza il pilastro portante.
Le sfide sociotecniche poste agli ecosistemi dell’innovazione
L’Osservatorio individua tre sfide poste dal contesto scientifico, tecnologico e sociale sopra delineato, a cui mira con l’ambizione di contribuire ad affrontarle.
La prima è il disallineamento tra mondo accademico e una ristretta élite imprenditoriale e la maggioranza delle imprese e delle pubbliche amministrazioni. Intelligenza artificiale, tecnologie quantistiche, supercalcolo sono padroneggiati da una stretta minoranza di attori dell’ecosistema, mentre rimangono sostanzialmente sconosciuti alle Piccole e Medie Imprese e alle Pubbliche Amministrazioni (ISTAT, 2023). Pur essendo il trasferimento tecnologico un tema molto dibattuto, rimane carente il dialogo tra istituzioni di ricerca e grandi aziende alla frontiera dell’innovazione e la restante parte dell’ecosistema, minando la concretezza delle possibilità di implementazione di soluzioni tecnologiche anche ad un elevato livello di sviluppo e di potenziale innovativo.
La seconda sfida riguarda non solo l’entità del cambiamento ma la rapidità delle trasformazioni che stanno avvenendo a livello tecnologico e che trainano la cosiddetta “società dell’accelerazione” (Rosa, 2010). Questa, infatti, è di molto superiore alla capacità degli individui di metabolizzarla, di adattarsi cognitivamente ad essa (Woodhouse, 2016) e di intraprendere azioni di cambiamento organizzativo per favorire i processi di innovazione. In questo quadro, ricerche in ambito sociologico e manageriale nel framework dei sistemi complessi stanno rivelando il crescente ruolo strategico di azioni di creazione di consapevolezza rivolte non solo a individui singoli ma alle “comunità” nelle quali essi esercitano il loro sviluppo umano e sociale in relazione con altri individui e con l’intera collettività (Fichter, 2009).
Da ultimo, assistiamo a una ipo-socializzazione della scienza e della tecnologia (D’Andrea, 2009). Nonostante stia accompagnando cambiamenti strutturali nelle nostre società, l’accelerazione degli sviluppi tecnologici in tema di dati e intelligenza artificiale non è ancora “stata messa in cultura” e fatica a raggiungere i cittadini. Persiste la concezione che scienza e tecnologia siano appannaggio di una comunità, spesso concepita come astratta, di esperti. Ciò è in contrasto con la direzione, ormai tracciata a livello internazionale, per cui i cittadini sono e saranno sempre più spesso chiamati a prendere decisioni informate su temi che toccano temi scientifico-tecnologici. In questo panorama, è quanto mai urgente un ragionamento su strategie sinergiche per lo sviluppo di competenze digitali e di una data literacy come patrimonio non solo di una comunità di addetti ai lavori ma come competenze di cittadinanza (Barelli, 2022).
Per affrontare queste sfide, l’Osservatorio delinea un approccio future-oriented in cui un ruolo portante è dato dalla valorizzazione e costruzione di scenari alternativi per l’evoluzione degli ecosistemi dell’innovazione, intesi come i sistemi interconnessi di attori che collaborano (o competono) alla co-creazione di prodotti, servizi, progetti (de Vasconcelos Gomes, Figueiredo Facin, Salerno, Ikenami, 2018).
L’approccio future-oriented del progetto
Le sfide enunciate nel paragrafo precedente sollecitano l’individuazione di diverse traiettorie che, nel progetto, si concretizzano in specifiche attività. In questa sezione, in particolare, sottolineiamo il ruolo che gli scenari hanno in ciascuna delle traiettorie.
Dal presente al futuro
Il frenetico presente degli sviluppi tecnologici richiama a un’urgenza di futurizzazione, per lo sviluppo di strategie su orizzonti temporali che superino il brevissimo termine di progettazione e realizzazione di artefatti o servizi. Questo porta alla prima traiettoria dell’Osservatorio che parte dalla mappatura di casi d’uso che già oggi illustrano l’applicazione pratica delle tecnologie in diversi contesti per arrivare ad un’esplorazione di futuri probabili, possibili o desiderabili (Bezold, 2009). Gli scenari elaborati toccano sì gli sviluppi tecnologici (quali saranno le tecnologie del futuro? in quali ambiti verranno applicate? che ruolo avrà il supercalcolo?) ma si focalizzano in maniera particolare sull’evoluzione dell’ecosistema dell’innovazione (quale modello di interazione adotteranno grandi imprese, piccole e medie imprese, start up, pubbliche amministrazioni nei confronti delle infrastrutture pubbliche di supercalcolo?). Per l’elaborazione di tali scenari, l’Osservatorio costruisce la propria analisi sulla base di fonti accreditate a livello internazionale, variegate per orizzonte temporale considerato, metodologia e focus tematico. Si utilizzano i) driver e trend dichiarati dalle stesse aziende operanti sulle tecnologie abilitanti, ii) report e analisi prodotti dagli Osservatori tecnologici attivi in Italia e condotti da realtà afferenti al Centro Nazionale in Supercalcolo, iii) trend macro-economici elaborati da società internazionali, iv) megatrend e scenari elaborati da centri di ricerca in futures studies.
Dall’osservare all’agire
Una seconda traiettoria del progetto si concentra sul concetto di Osservatorio come un programma di osserv-azione, che combini un metodo di mappatura, di elaborazione e di proposta di scenari futuri con un approccio orientato alla realizzazione di azioni concrete. Le attività condotte in questa area di progetto sono principalmente attività di incontro su tutto il territorio nazionale con esperti e beneficiari, come l’istituzione di tavoli tematici e la realizzazione di workshop, al fine di discutere le domande aperte e di delineare possibili ambiti di intervento. Anche in questi momenti gli scenari hanno un ruolo centrale in quanto pensati come boundary objects (Akkerman e Bakker, 2011) che facilitano la discussione tra i portatori di interesse.
Dalle pratiche alle policy
Consapevoli del fatto che ogni azione, per quanto ben progettata e articolata nel suo sviluppo, rimane sterile se non inserita in quadro politico più ampio, la terza traiettoria dell’Osservatorio è incentrata sul supporto ai processi decisionali in ambito pubblico e privato. In particolare, si vogliono fornire proposte operative, a partire dalle buone pratiche individuate e dagli scenari probabili, possibili e desiderabili formulati, per i decisori politici in un’ottica di allineamento con i principi della Ricerca e Innovazione Responsabili, sostenendo processi decisionali che siano eticamente responsabili e socialmente benefici.
La tecnologia come fattore abilitante per l’ecosistema
Abbiamo aperto questa riflessione sottolineando un disallineamento di consapevolezza tra diverse tipologie di organizzazioni riguardo le potenzialità offerte dalle tecnologie. Il progetto dell’Osservatorio intende innescare riflessioni ed attività che vadano invece verso una visione partecipativa e (eco)sistemica della tecnologia, lontana al contempo dal tecnosoluzionismo, inteso come la posizione per la quale l’innovazione tecnologica viene ritenuta la chiave per la risoluzione di ogni problema (Morozov, 2013). Al contrario, la discussione e progressiva definizione degli scenari trasversalmente alle attività del progetto mirano ad identificazione di bisogni, prima ancora che di soluzioni, a cui le tecnologie possono eventualmente fornire risposta. Così, supercalcolo, calcolo quantistico, intelligenza artificiale, potranno davvero essere pienamente considerate come tecnologie abilitanti, ossia che abilitano risposte a fabbisogni concreti, e relazioni tra soggetti nell’ecosistema.
Bibliografia
- Akkerman S.F., Bakker A., Boundary Crossing and Boundary Objects, “Review of Educational Research”, vol. 81 n. 2, 2011.
- Barelli E., Complex systems simulations to develop agency and citizenship skills through science education, AMS Dottorato Institutional Doctoral Theses Repository, 2022.
- Boyd d., Crawford K., Critical questions for big data, “Information, Communication and Society”, vol. 15 n. 5, 2012.
- Commissione Europea, “Summary Report on the open public consultation on the European strategy for data”, 2020.
- D’Andrea L., A different interpretation of science-society relations: the socialization of scientific and technological research, “Journal of Science Communication”, vol 8, n. 3, 2009.
- Dagher Z.R., Erduran S., Reconceptualizing the nature of science for science education, “Science & Education”, vol. 25, 2016.
- de Vasconcelos Gomes L.A., Figueiredo Facin A.L., Salerno M.S., Ikenami R.K., Unpacking the innovation ecosystem construct: Evolution, gaps and trends, “Technological Forecasting and Social Change”, vol. 136, 2018.
- Fichter K., Innovation communities: the role of networks of promotors in Open Innovation, “R&D Management”, vol. 39, n. 4, 2009.
- ISTAT, Nel 2023 piccole e medie imprese ancora penalizzate in attività specialistiche di digitalizzazione, “Imprese e ICT”, 20 dicembre 2023: https://bit.ly/4c67kT9.
- Kitchin R., The Data Revolution. Big Data, Open Data, Data Infrastructures & Their Consequences, SAGE, London, 2014.
- Morozov E., To Save Everything, Click Here: Technology, Solutionism, and the Urge to Fix Problems that Don’t Exist, PublicAffairs, New York, 2013.
- O’Neil C., Weapons of math destruction: How big data increases inequality and threatens democracy, Crown, New York, 2017.
- Osservatorio ICSC, www.osservatorio.supercomputing-icsc.it, 2024.
- Rosa H., Alienation and acceleration: Towards a critical theory of late-modern temporality, NSUpress, Malmö/Aarhus, 2010.
- Veale M., Binns R., Fairer machine learning in the real world: Mitigating discrimination without collecting sensitive data, “Big Data & Society”, vol. 4 n. 2, 2017.
- von der Leyen U., Remarks of President von der Leyen at the Bletchley Park AI Safety Summit 2023, “European Commission Press Corner”, 2 novembre 2023: https://ec.europa.eu/commission/presscorner/detail/en/speech_23_5502
- Woodhouse E.J., Slowing the pace of technological change?, “Journal of Responsible Innovation”, vol. 3 n. 3, 2016.