Preparare il pranzo, compilare la lista per la spesa, decidere a che ora uscire di casa. In modo impercettibile, quasi simbiotico, la tecnologia ha pervaso la nostra quotidianità con la promessa di renderla più semplice o almeno offrire un ventaglio di opzioni che fino a quel momento ci erano precluse. È sufficiente consultare un qualsiasi store virtuale per rendersi conto che esiste un’app per ogni cosa: dal regolare la routine sonno/veglia all’imparare il cinese mandarino, dal fare esercizio fisico comodamente in pigiama all’apprendere tecniche di training autogeno. Attraverso gli strumenti immateriali messi a disposizione dai dispositivi intelligenti, l’uomo comune ha abbattuto le frontiere del particolare per immergersi in una metarealtà globale che parla il linguaggio universale dei codici di programmazione e degli algoritmi che ne stanno alla base.
A un livello intermedio, tale influenza si ripercuote sull’ecosistema di interazioni sociali che alimenta il nostro habitat valoriale e culturale. È facile pensare, in tal senso, a quanto i social network siano in grado di deformare, plagiare, circoscrivere la nostra percezione della realtà attraverso l’effetto filter bubble ben descritto da Eli Pariser nell’omonimo saggio del 2011. Il rinforzo positivo o negativo indotto da una frequentazione assidua dei social ha effetti sul modo in cui sviluppiamo opinioni, sulle notizie a cui decidiamo di credere, sull’orientamento politico, ma anche sulle forme discriminatorie che riserviamo a determinate etnie, religioni, culture, e così via. Un algoritmo può così determinare un voto, la decisione in merito a un nuovo lavoro e persino la scelta di un partner: basta uno swipe a destra o sinistra per aprire o chiudere le sliding doors del destino. Il problema è che non è possibile stabilire, e neppure approssimare, quanta consapevolezza ci sia alla base di un gesto istintivo e automatico come lo scorrere di un pollice; se siamo in grado di agire come attori razionali, adeguatamente informati, al cospetto di un flusso di informazioni pressoché illimitato.
E non è tutto. Così come le app modificano i microcomportamenti individuali, le piattaforme a disposizione dei colossi dei big data sono ormai in grado di prevedere, modificare, subordinare ogni settore della società al volere dei propri algoritmi. Ne sono esempi il sistema di navigazione messo a punto alcuni anni fa da UPS, che limita al minimo il numero di svolte a sinistra dei furgoni impegnati nelle consegne, consentendo così di risparmiare tempo e carburante, o i sofisticati software di high-frequency trading che movimentano migliaia di transazioni al secondo per garantire la massimizzazione dei profitti sui mercati finanziari. È interessante a questo punto riservare una considerazione sull’impatto degli algoritmi al di fuori di contesti “chiusi” come il focolare domestico o un segmento di mercato, e analizzarli alla luce del loro impiego in un sistema verticistico come il nostro, che procede in senso gerarchico dall’alto verso il basso attraverso un meccanismo di tipo trickle-down, come sapientemente intuito dal sociologo tedesco Georg Simmel sul finire del XIX secolo.
È innegabile che vi siano applicazioni concrete, dagli indiscutibili effetti benefici, degli algoritmi. Basti pensare al recente utilizzo dei modelli predittivi negli studi epidemiologici sul coronavirus. Governi e organizzazioni sanitarie in tutto il mondo vi hanno fatto ampio ricorso per cercare di prevedere la diffusione del COVID-19 tra la popolazione, il tasso di contagio, la durata del picco. Negli Stati Uniti l’Allen Institute for AI ha varato la piattaforma CORD-19 (COVID-19 Open Research Dataset) al fine di costruire un database ampio, condiviso e liberamente consultabile di pubblicazioni e ricerche scientifiche sul coronavirus, e permettere ad analisti e programmatori di sviluppare algoritmi precisi e affidabili. Al momento la risorsa dispone di più di 47mila articoli.
In altri settori, l’intelligenza artificiale potrebbe essere sfruttata per superare i bias cognitivi tipicamente diffusi in alcune zone del pianeta. Poiché dietro ogni algoritmo c’è sempre la mano – e la mente – della persona che l’ha creato, è accaduto spesso che i software di IA “replicassero” i pregiudizi tipici del contesto culturale da cui provenivano: uomini scambiati per donne per il semplice motivo di trovarsi in una cucina, pazienti bianchi privilegiati rispetto ai pazienti neri nelle decisioni del sistema sanitario, errori nel riconoscimento facciale di Amazon relativi a donne e persone di colore. Esiti che finiscono per consolidare e perpetuare atteggiamenti discriminatori nei confronti delle minoranze potrebbero, all’inverso, stimolare un approccio egualitario se corretti e perfezionati a dovere. Ad esempio, la recente decisione di Google di utilizzare il termine persona in luogo di uomo e donna potrebbe agevolare il superamento dello stigma sociale nei confronti delle persone di genere non-binario.
Ma non sono pochi i casi in cui un utilizzo improprio degli algoritmi ha causato danni incalcolabili, palesando la nocività e la tossicità di uno squilibrio sistemico nel possesso e nella gestione dei dati, nonché l’inadeguatezza di una legislazione ancora arretrata e carente in materia. Lo scandalo Cambridge Analytica, con i profili di 87 milioni di utenti Facebook dati in pasto alla propaganda elettorale senza alcun consenso, ha fatto storia. Ci sono poi le fake news che vengono diffuse dai bot per manipolare l’opinione pubblica. È accaduto durante le elezioni statunitensi a opera dei troll russi per avvantaggiare Trump, è accaduto dopo che lo stesso Trump ha annunciato il ritiro degli USA dall’Accordo di Parigi sul clima: come riportato da The Guardian, circa un quarto dei tweet pubblicati nel mese successivo all’annuncio che avevano a oggetto il negazionismo climatico proveniva da bot automatizzati. Più di recente, la piattaforma Bot Sentinel ha individuato migliaia di tweet correlati agli hashtag #coronavirus e #covid19 utilizzati per diffondere disinformazione e fomentare l’ansia sociale in merito alla pandemia.
È evidente come le risorse tecnologiche ed economiche dei colossi menzionati finora (più una manciata di altri) costituiscano un oligopolio in grado, potenzialmente, di assoggettare governi nazionali e istituzioni sovranazionali: la sola Apple, a metà marzo 2020, capitalizzava un valore pari a tre volte e mezzo l’intera Borsa italiana. Uno strapotere molto vicino a configurare una data dictatorship che sostituisce le ormai fragili e stanche democrazie liberali, se non formalmente almeno de facto. Si porta così a compimento una traslazione sociale dall’antropocentrismo all’internetcentrismo, in cui la cardinalità dell’essere umano è integralmente rimpiazzata dalle necessità dell’entità virtuale. Non che questo significhi intrinsecamente un regresso: come visto in precedenza, è possibile che in tema di diritti umani l’universalizzazione dell’informazione, proprio perché modellata su un pubblico “globale”, possa veicolare una visione più moderna, meno discriminatoria in materia di razza e di genere, ma è un’eventualità ben lontana dal compensare i rischi per le fondamenta storico-culturali e politiche della società.
Si tratta di ciò che il sociologo israeliano Yuval Noah Harari, autore di Homo Deus. Breve storia del futuro, definisce dataismo: la completa sottomissione dell’umanità al dominio dei dati, al punto da lasciare che siano gli algoritmi a compiere le scelte più importanti della vita. Possiamo paragonare l’umanità a un unico sistema di elaborazione dati, in cui ogni singolo individuo funziona come un chip, si legge nel libro. E per certi versi è esattamente quello che sta avvenendo: dapprima si è cercato di prevedere le azioni dell’individuo per anticiparne le esigenze; in un secondo momento si è provato a influenzarlo e orientarlo verso i comportamenti desiderati; adesso l’obiettivo è manovrarlo, imporgli scelte che lo rendano funzionale al sistema, profittevole. Un climax che di retorico ha ben poco. E cosa accadrebbe se quella bolla di filtraggio venisse a poco a poco gonfiata, espansa fino a inghiottire l’intero pianeta e tutti i suoi abitanti, rendendoli un unico prodotto massificato dello stesso algoritmo, indistinguibili gli uni dagli altri non nell’altezza o nel colore degli occhi, ma nei processi mentali e nei pattern comportamentali?
Al momento la soluzione più ragionevole appare un argine di tipo legislativo e giuridico al dilagare della dittatura degli algoritmi. La pandemia da COVID-19 ha dimostrato che un intervento tempestivo e coordinato di organismi nazionali e internazionali è di fondamentale importanza per fronteggiare le minacce globali; e questa lo è senz’altro. Senza scomodare le leggi della robotica di Asimov, basterebbe affrettarsi a riconoscere la rilevanza di intelligenze artificiali, big data e algoritmi nel regolare i meccanismi della società e comportarsi di conseguenza: un processo per la verità già avviato parzialmente in Europa, con il GDPR e le relative linee guida adottate a novembre 2019 che hanno introdotto i concetti di impatto etico sui diritti e la dignità dell’individuo nel trattamento dei dati personali e di equità e trasparenza nell’utilizzo degli algoritmi. Non sarà il vaccino tanto auspicato per immunizzarci dal totalitarismo del digitale, ma quantomeno una misura di contenimento per tutelare la salute precaria delle nostre democrazie.
Contributo a cura di Emanuele Tanzilli