Dall’algoritmo egoista all’algoritmo responsabile (e forse generoso)

scritto da il 03 Ottobre 2022

Post di Emilia Garito, CEO di Quantum Leap –

Il tema della dicotomia vs. l’analogia, attuale o prospettica, tra intelligenza umana e intelligenza artificiale ricorre da diversi decenni e ha origini nella letteratura scientifica dello scorso secolo. L’automatizzazione delle capacità umane ha a che fare con un tema dibattuto, quanto temuto dai più: il superamento dei limiti umani, sia fisici che intellettuali, appartiene da sempre al desiderio di miglioramento dell’uomo stesso, benché esso sia stato un tema, spesso, definito come utopistico, sia a causa di tempi poco maturi, sia per la possibilità di parlarne senza correre il rischio di spaventare le persone.

Sebbene queste tematiche da una parte sembrino mere disquisizioni filosofiche, risultano al contrario i fondamenti con cui questa realtà del domani potrà essere disegnata. Parliamo di Intelligenza Artificiale (IA) e di antropologia digitale insieme, chiedendoci come la prima sarà in grado di incidere sulla seconda, e nella sua capacità di superare l’intelligenza propria dell’uomo. Parliamo di discrezionalità delle macchine, di coscienza e di volontà, di significati qualitativi e quantitativi che l’Intelligenza artificiale potrà attribuire ai dati e del loro coincidere con i significati che l’uomo invece avrebbe a essi attribuito, se fosse stato più performante, veloce e razionale delle macchine stesse.

In questa discussione, che divide gli umanisti dai tecnologici più appassionati, si incrociano argomenti scientifici, etici e di regolamentazione, ma non risultano tutti armoniosamente intrecciati in quanto non ancora affrontati a partire da un comune livello di conoscenza e di interpretazione della materia, sia nella sua forma tecnologica che esperienziale, e che rende l’Intelligenza Artificiale il più complicato e veloce strumento di trasformazione sociale della nostra storia.

Questo limbo, tra ieri e domani, perdurerà ancora per un po’ di anni ed in esso  è racchiuso il rischio dell’errore nelle scelte di attuazione degli algoritmi all’interno delle nostre vite. Tuttavia, forse con umiltà e con la necessaria incertezza di chi voglia avviare un processo ermeneutico, possiamo provare a ragionare sulle relazioni tra costo e opportunità dell’IA partendo dagli elementi scientifici più significativi, per poi comprendere cosa convenga accettare o perseguire e cosa, invece, potrebbe essere non consono ad un modello virtuoso di sviluppo umano, in termini di miglioramento delle nostre condizioni di vita.

Le macchine imparano da sole e sostituiscono l’uomo?

La domanda più ricorrente che ci poniamo è se davvero le macchine siano in grado di auto apprendere e se potranno in futuro sostituire l’uomo in tutte o quasi le sue attività, migliorandone considerevolmente i risultati. Nel dare questa risposta si sono attivate diverse scuole di pensiero, ad esempio quella di Fei Fei Li, direttrice del laboratorio di ricerca di AI di Stanford, secondo cui l’IA potenzierà le capacità umane e ci consentirà di svolgere una vita migliore commettendo meno errori (medici con capacità fisiche superiori, tipo una vista aumentata e instancabile; automobili più sicure; disastri naturali evitabili, perché prevedibili). Al contrario, altri  pensatori come Stephen Hawking, uno dei fisici teorici più conosciuti al mondo, sostengono che l’IA possa accelerare l’estinzione della specie umana, nella sua capacità di sostituirla in tutte le sue  funzioni principali, sebbene al momento non biologiche.

Di fatto, se le capacità logiche dell’uomo fossero raggiunte e superate dalle macchine e, quindi, se all’uomo rimanesse soltanto la prerogativa d’uso delle proprie funzioni emotive, queste ultime quale peso avrebbero nello schema razionale-psicologico che ha sovvertito l’interpretazione dello stesso genere umano negli ultimi quasi centocinquant’anni, da quando Wundt istituì la psicologia come scienza del pensiero? Siamo pronti a rinunciare alla complessità, spesso ignota, della nostra mente sia razionale che emotiva, parlando dunque dell’intuito come strumento di osservazione dei fenomeni, in favore della perfezione cinica dell’algoritmo egoista? E se la risposta fosse affermativa, abbiamo calcolato le ripercussioni di questa scelta?

Bene, mentre decidiamo se e come rispondere a questa domanda, vediamo come l’IA nasce, cresce e si sviluppa.

algoritmo

Da Bacone all’algoritmo: il limite della black box

Colui che possiamo assimilare a padre concettuale dell’IA, per il suo approccio empirico e rivoluzionario – rispetto a quelli teorici della filosofia tradizionale precedente – è Francis Bacon, noto come Bacone, il fondatore del metodo scientifico che nei suoi trattati spiegava come la ripetizione di un fenomeno, o esperienza osservabile dello stesso, sia il criterio fondamentale per la conoscenza della natura. Allo stesso modo, Bacone portava avanti la sperimentazione come strumento di osservazione dei dati e di conoscenza della verità, al di sopra delle teorie concettualizzate aprioristicamente. Per Bacone, solo l’iterazione consentiva di ottenere un numero sufficiente di dati osservabili, e quindi neutrali, sui quali basare le teorie scientifiche successive.

Nel suo Novum Organum (1620), ha proposto il metodo baconiano, ovvero un approccio in cui le osservazioni pertinenti attorno a un fenomeno specifico sono sistematicamente raccolte, tabulate e oggettivamente analizzate utilizzando la logica induttiva, allo scopo di produrre delle idee generalizzabili. Tale metodo, concepito 500 anni fa, ha portato ad un nuovo assioma che oggi potremmo sintetizzare dicendo che “ogni processo di scoperta è intrinsecamente algoritmico, ovvero si configura come il risultato di un numero finito di passi che si ripetono fino a quando viene scoperto un risultato significativo”.

Ma tra il metodo baconiano e il modus operandi dell’IA c’è una differenza tecnologica e concettuale di fondamentale importanza, per definire il ruolo dell’IA per noi adesso e nel futuro. Il metodo baconiano ha tre componenti essenziali: in primo luogo, le osservazioni devono essere raccolte e selezionate come base di elaborazione successiva (analogamente a come vengono gestiti i dati di input dell’algoritmo); poi queste osservazioni e i risultati da esse prodotti devono essere integrati agli altri dati, magari già noti perché disponibili e con i quali fare i necessari confronti e analisi (e anche qui abbiamo il tema della selezione, della combinazione e dell’aggregazione dei dati di input per l’IA); infine il risultato del processo di sperimentazione va reiterato per generare ulteriori ipotesi da sperimentare nuovamente (e qui siamo nel metodo tipico di un algoritmo pensato per iterare esponenzialmente il proprio processo di analisi fino al raggiungimento della scelta migliore). In tutto questo processo di iterazione riconosciamo dunque il funzionamento delle tecniche di apprendimento automatico dell’IA (machine learning/deep learning), ma tra l’algoritmo intelligente e il metodo baconiano esiste una sostanziale differenza: la black box. 

Il nodo etico e tecnologico da sciogliere è, dunque, proprio il ruolo della black box nell’elaborazione dei dati e nella loro trasformazione da meri elementi di input in decisioni di output, spesso irrevocabili.

Mentre nell’approccio baconiano la neutralità del processo empirico e la sua trasparenza di funzionamento garantivano una totale consapevolezza del perché si ottenessero dei risultati osservabili, al contrario l’algoritmo di IA è basato sul calcolo nascosto effettuato dalla black box inizialmente programmata per elaborare nodi con pesi misurabili, ma divenuta poi un contenitore di azioni dinamiche ignote modificabili solo dallo stesso algoritmo, che decide autonomamente le metriche di elaborazione dei dati di ingresso caricati dall’uomo. La scatola nera, una volta inseriti i dati che l’intelligenza umana è stata in grado di raccogliere e offrire, restituisce i risultati secondo una logica non criticabile poiché non accessibile. In tal senso, è come se intorno all’algoritmo avessimo costruito una sorta di “fede misteriosa” che in virtù della sua presunta infallibilità e neutralità ci induce a fidarci e a far decide all’algoritmo il meglio per noi, senza però spiegarci il perché.

Questo elemento di differenziazione con il metodo empirico baconiano, il cui rigore circa l’osservazione e l’elaborazione trasparente dei fenomeni ne è caratteristica morale e funzionale, rappresenta il nodo etico e regolamentativo più importante per il futuro dell’IA per il quale si deve necessariamente affrontare il tema della discrezionalità della macchina rispetto alla discrezionalità umana; ricordandoci però, ad ogni passaggio, che “l’ottimizzazione cieca dell’accuratezza porta a consigli senza contesto”.

Una proposta semplice per un algoritmo “realmente” intelligente: l’AI Shaper

Una soluzione in risposta a tale questione è relativa, ancora una volta, alla combinazione tra scelte scientifiche e assiomi etici. La soluzione scientifica è quella di istruire l’algoritmo intelligente a diventare responsabile, attraverso l’approccio del training dell’algoritmo stesso, progettato mediante i grafi della conoscenza. Attraverso i grafi della conoscenza potrà essere possibile un giorno risalire al processo di elaborazione dei dati, da input in output. Questo potrà, di fatto, assimilare il metodo di lavoro dell’IA al metodo baconiano, trasformando la “fede misteriosa”, alla quale oggi siamo chiamati, in opportunità per la sua corretta evoluzione.

In questo modo, e  in attesa dello sviluppo delle future auspicabili “light box” basate sui grafi di conoscenza, possiamo affrontare un secondo aspetto relativo all’autonomia dell’IA, ossia la definizione dei limiti e degli usi di applicazioni di IA che vengono disegnati a monte del processo decisionale. Ritengo, infatti, che al di là delle capacità di sviluppo dell’Intelligenza Artificiale, dovrà sempre e comunque essere l’uomo a rispondere ai problemi reali usando gli algoritmi, avviandoli e bloccandoli secondo un progetto da esso stesso pensato e controllato. Da qui anche la possibilità di definire nuove professioni, come quella dell’AI Shaper, ovvero il forgiatore/disegnatore dell’uso responsabile degli algoritmi, contro le derive che gli stessi potrebbero prendere.

L’AI Shaper è un conoscitore delle potenzialità e dei limiti da porre all’IA: con responsabilità e competenza modula gli impatti possibili in maniera tale da garantire sempre il controllo dell’elaborazione dei dati, rispettandone i principi di trasparenza e neutralità e facilitandone il processo sperimentale di raccolta e osservazione, preservandoli da pregiudizi computazionali oggi comuni in moltissimi algoritmi pseudo-intelligenti. In questo modo, potremmo forse vedere sviluppata in concreto la previsione Baconiana circa una evoluzione della società, della natura e dei fenomeni della nostra specie, comprensibili e affrontabili grazie ad un percorso di osservazione iterativo, analitico e trasparente.

In tale visione l’Intelligenza Artificiale diventerebbe uno strumento di creazione di una nuova conoscenza, oggi più complessa e mutevole rispetto al passato, che ancor di più ha bisogno di essere acquisita dall’uomo per consentirgli il necessario controllo della evoluzione della propria  specie,  piuttosto che farlo divenire l’inconsapevole artefice della sua stessa estinzione.