Italian (Italy) flag English flag IT

Chi educa chi nell’era dell’AI?

 

Dall’animismo ingenuo al marketing della Silicon Valley: smontare i miti dell’AI per rimettere l’umano al centro

Se un giorno riuscissimo a decifrare il canto delle balene, cosa chiederemmo loro? Probabilmente ci troveremmo di fronte a una forma di sapere antico, un complesso pattern di codici scolpito da milioni di anni di evoluzione e radicato nella biologia della sopravvivenza.

 

È una domanda di fantasia, ma oggi non più così lontana dalla realtà: se un giorno potremo davvero comprendere la comunicazione tra le balene sarà proprio grazie all’Intelligenza Artificiale, la tecnologia che ormai vediamo entrare in ogni angolo della nostra vita – dall’istruzione all’intrattenimento, al mondo del lavoro – allo stesso tempo sorprendente e deludente, utile e superflua. Una vera e propria ossessione collettiva.

 

Nell’ultimo incontro organizzato da Fondazione BergamoScienza in collaborazione con GAMeC, il filosofo evoluzionista Telmo Pievani e l’ingegnere informatico Juan Carlos De Martin, membri del Comitato Scientifico di BergamoScienza, hanno lanciato una sfida intellettuale necessaria: in un mondo dominato dagli algoritmi, chi sta davvero educando chi?

 

Pievani: il rischio di una “simbiosi digitale”?

Telmo Pievani ha aperto il dibattito con una provocazione nata dalla biologia evolutiva e da un recente e controverso articolo pubblicato su PNAS (Could humans and AI become a new evolutionary individual?). Secondo gli autori, l’IA non deve preoccuparci solo per la sua efficienza, potenza e velocità, ma per la sua capacità di agire come uno specchio narcisistico: conferma i nostri dubbi e le nostre opinioni, provocando di conseguenza rilascio di dopamina e facilitando la nostra continua interazione con lei. Ma quale sarà la conseguenza a lungo termine di questa interazione?

 

«L’ipotesi è che ci troveremo presto davanti a un processo di co-evoluzione. Noi ci stiamo adattando alla macchina mentre lei impara e si adatta a noi. Un fenomeno comune a molte tecnologie ma in questo caso ancora più accentuato».

 

Il problema, secondo il filosofo, è radicato nel nostro passato evolutivo. La mente umana è vittima di un “animismo ingenuo”: siamo biologicamente programmati per attribuire intenzioni e sentimenti anche a oggetti inanimati (Ti è mai capitato di urlare contro il computer perché una pagina non caricava o implorare lo smartphone di non spegnersi? Ecco, in quel momento, inconsciamente, hai attribuito a dei dispositivi elettronici una volontà propria). Davanti a una chat che risponde con fluidità, cadiamo nell’illusione che dietro ci sia una mente simile alla nostra.

 

Tuttavia, il rapporto con l’AI sta andando oltre la semplice proiezione affettiva. Gli autori dell’articolo su PNAS, portando la riflessione alle sue estreme conseguenze, parlano di simbiosi: in natura, questo processo avviene quando un organismo dipende da un altro, fino al punto da entrare a farne parte (come accadde miliardi di anni fa con i mitocondri nelle nostre cellule). Con l’IA stiamo rischiando un’integrazione simile? Daremo un corpo all’algoritmo, mentre gli delegheremo memoria e decisioni? Ma a quale prezzo? L’AI ha un costo ambientale insostenibile: ad oggi consuma già l’1,5% dell’energia globale e richiede ingenti quantità d’acqua per il raffreddamento dei server.

 

La sfida, allora, è usarla bene: per fare cose che prima non potevamo fare, per porre nuove domande. Proprio come si sta tentando di fare con i rotoli carbonizzati di Ercolano o con i complessi pattern sonori delle balene: usare l’AI come lente per leggere la complessità della natura, non come specchio di noi stessi, un giorno forse capace di sostituirci.

 

De Martin: l’AI è un prodotto umano

Se Pievani guarda alla biologia, Juan Carlos De Martin si concentra su storia e politica dell’AI, ricordandoci che il dibattito collettivo su questo tema è influenzato in modo sostanziale dagli interessi economici che ruotano attorno alla tecnologia

 

«L’intelligenza artificiale non è natura, è un prodotto umano frutto di scelte determinate, come ogni tecnologia, e come ogni tecnologia umana – fino a prova contraria – è sotto il controllo e la responsabilità degli umani»

 

La stessa dicitura Artificial Intelligence, coniata nel 1955 da John McCarthy, nacque come una geniale operazione di marketing per sedurre il Dipartimento della Difesa americano a sbloccare fondi cospicui (non a caso venne usato il termine intelligence, che in inglese richiama il mondo dello spionaggio). Oggi, quel nome agisce non più come una promessa di progresso, ma come una minaccia di esclusione, la cosiddetta Fear Of Missing Out (ovvero la paura di restare indietro) che spinge scuole, aziende e università a un’adozione affrettata delle nuove tecnologie.

 

Tuttavia, tale rincorsa ignora la natura stessa di questi strumenti: la tecnologia informatica, proprio per come è stata progettata, tende spesso all’isolamento dell’individuo, riducendo la dimensione cooperativa del sapere. Nel corso degli anni si è assistito all’arrivo ciclico di nuove rivoluzioni tecnologiche: dalla stampa alla radio, dalla televisione fino al computer. Eppure, nessuna di queste ha mai davvero scardinato il sistema dell’insegnamento. Il motivo è semplice quanto profondo: il rapporto interpersonale è il vero motore dell’apprendimento. La conoscenza non è un semplice travaso di dati, ma un processo che richiede empatia, confronto e presenza.

 

«Dobbiamo essere noi a sottoporre l’AI alle leggi umane e non viceversa» conclude De Martin. La libertà della scuola e delle università deve essere quella di scegliere quali strumenti servano ai propri fini educativi, per formare menti capaci di pensiero autonomo.

 

Una responsabilità che non si può delegare

Il confronto tra i due studiosi traccia un confine netto. Da un lato, l’Intelligenza Artificiale può essere una lente straordinaria per scoprire il mondo, dall’altro, rischia di diventare un vincolo che modella le nostre vite a vantaggio di pochi interessi privati – le grandi aziende tecnologiche che ne sono oggi proprietarie. L’educazione, concludono Pievani e De Martin, non può essere determinata dall’ultimo aggiornamento del software. Solo capendo che l’AI non possiede né corpo, né intenzionalità, né una reale conoscenza del mondo, e tantomeno un vincolo di responsabilità (come dimostra la viralità delle fake news), potremo riappropriarci della facoltà, squisitamente umana, di decidere quale forma dare al futuro, senza lasciarci addomesticare dai nostri stessi (imperfetti) algoritmi.