Politica e intelligenza artificiale: idee poche ma confuse. Ecco cosa propone ChatGPT

scritto da il 02 Maggio 2023

Post degli avvocati Matteo Bonelli e Matteo Erede. Il primo si occupa di societario e contrattualistica commerciale. Il secondo di contenzioso societario e corporate governance ed è Adjunct Professor presso l’Università Bocconi di Milano. Sono gli autori del podcast Capitali coraggiosi sul Sole 24 Ore –

Nell’ultimo numero del Mensile Società, edito da questo Gruppo, abbiamo parlato del ruolo dell’intelligenza artificiale nella governance delle organizzazioni, ripromettendoci di svolgere ulteriori considerazioni anche sulla governance della stessa intelligenza artificiale, a partire dal blocco di ChatGPT disposto a fine marzo dal Garante per la protezione dei dati personali, in seguito al quale si sono avvicendati vari incontri fra il Garante e OpenAI (ie, il titolare di ChatGPT) per discutere e delineare i correttivi da adottare per tutelare gli utenti da presunte carenze informative, di tutela dei minori, di esercizio dei diritti e della (non meglio precisata) “base giuridica” della piattaforma. Tali correttivi sono poi stati adottati senza difficoltà e in poco tempo, sicché alla fine di aprile l’accesso a ChatGPT è stato ripristinato.

A prescindere dalle opinioni che si possono avere sui rischi dell’intelligenza artificiale, ci rincresce constatare come la gestione di questa vicenda sia risultata davvero un po’ goffa.

Lo sconcertante blocco di ChatGPT

In primo luogo, perché il blocco di ChatGPT è apparso ai più sconcertante, anche alla luce del fatto che l’Italia è l’unico paese al mondo dove sia stato disposto. Dunque, ammesso che ci fossero carenze da sistemare, sarebbe stato meglio affrontarle con un provvedimento meno clamoroso, che poi si è pure rivelato inefficace, dato che siamo riusciti ad aggirarlo facilmente perfino noi (v. infra). Sicché il blocco si è rivelato al tempo stesso esagerato e teatrale, a meno che il suo intento non fosse di farne discutere e basta.

In secondo luogo, perché i problemi di ChatGPT, e più in generale dell’intelligenza artificiale, non si possono certo ridurre a quelli evidenziati dalle ragioni del suo blocco, ma sono ovviamente ben più ampi. Pur senza arrivare alle prospettive distopiche e apocalittiche di film di fantascienza come Terminator e Matrix – peraltro considerate realistiche da molti esperti, al punto da averli spinti a chiedere una moratoria di sei mesi sull’intelligenza artificiale per mettere a punto un quadro di protocolli e regole che ne assicurino lo sviluppo in sicurezza – anche nella migliore delle ipotesi l’intelligenza artificiale determina il rischio concreto della perdita di milioni di posti di lavoro, rispetto al quale i problemi di privacy, già vissuti come speciosi da molti, scivolano decisamente in secondo piano.

IA

(REUTERS)

IA e quadro normativo inadeguato

Sicché, sia il blocco disposto a fine marzo, sia  le misure correttive indicate in aprile, sembrano dipendere non solo dall’inadeguatezza del quadro normativo di riferimento, ma anche da una certa incomprensione dei veri problemi. A onor del vero la situazione non si presenta molto diversa altri paesi, in cui le idee dei policy makers circa il mondo digitale oltre a sembrare “poche, ma confuse”, sembrano anche “confuse e (in)felici”.

Per farsene un’idea basterebbe ascoltare le domande rivolte al CEO di TikTok, Shou Zi Chew, durante la sua recente audizione al Congresso statunitense: molte di esse erano così vaghe, speculative e irrilevanti da far dubitare della competenza di chi le poneva. Le risposte di Shou Zi Chew si sono invece rivelate impeccabili, così come la sua pazienza nell’ascoltare certe sciocchezze senza mai perdere la calma.

Competenze tecnologiche, l’abisso tra legislatori e Big Tech

La stessa situazione si verificò nel 2018, durante le audizioni di Mark Zuckerberg davanti al Congresso statunitense, e poi al Parlamento europeo. Forse qualcuno si ricorderà ancora qualcuna delle improbabili domande poste dal senatore statunitense Orrin Hatch, o qualcun’altra, più petulante, del parlamentare europeo Guy Verhofstadt—se servirono a qualcosa, fu soprattutto per rivelare (ove ce ne fosse stato bisogno) l’abisso che separa le competenze tecnologiche dei legislatori statunitensi ed europei da quelle dei gestori delle Big Tech e, soprattutto, il difetto di comprensione del fenomeno digitale da parte dei primi.

Per descrivere queste situazioni esiste oggi un neologismo che abbiamo imparato dai nostri figli-cringe, che descrive un comportamento che suscita imbarazzo e disagio in chi lo osserva. Così è cringe il genitore ebbro di giovanilismo, o chi si atteggia a grand’uomo con tono stentoreo. Ed è cringe, ovviamente, chi si rivela inadeguato al ruolo che è chiamato a svolgere.

Divieti alla IA ed eterogenesi dei fini

D’altra parte, non sarebbe certo la prima volta che un divieto poco lungimirante determina un’eterogenesi dei suoi fini. Così è stato, recentemente, per le restrizioni adottate da alcuni stati nordamericani al diritto all’aborto, che hanno determinato un turismo abortivo che ne ha sostanzialmente neutralizzato l’efficacia. Tranne che, ovviamente, per i più poveri. Lo stesso è accaduto per le restrizioni adottate in Italia nel 2004 sulla fecondazione eterologa, che hanno determinato fenomeni opposti di turismo riproduttivo, trasformandole in un’ennesima ragione di fuga all’estero (su quante e quali siano le regole italiane con effetti analoghi occorrerebbe poi scrivere un intero libro, se non un trattato) colpendo solo, ancora una volta, chi non se lo poteva permettere. Queste restrizioni furono in parte ridimensionate dalla Corte Costituzionale nel 2014, ma problemi analoghi si pongono ancora oggi per la maternità surrogata, per molti ambiti della ricerca sugli embrioni e perfino sui nuovi generi alimentari.

Le regole più restrittive danneggiano chi le ha

Sicché sembrerebbe ormai dimostrato che regole disomogenee fra diversi stati finiscano per danneggiare principalmente quelli che hanno le regole più restrittive. A chi rivendica che l’innovazione incontrollata debba essere fermata, o anche solo arginata, si potrebbe ricordare l’esempio della Cina della metà del millennio scorso, che nell’interrompere i viaggi di esplorazione dei mari e nel chiudersi su sé stessa segnò il suo inesorabile declino, pur partendo da una posizione di leadership assoluta: si è davvero disposti a rischiare di fare la stessa fine?

A dire il vero già oggi la situazione appare rovesciata, con un occidente che invoca argomenti vecchi e già usati nei secoli scorsi contro l’innovazione (in proposito bisognerebbe leggere o rileggere Retoriche dell’intransigenza di Alfred Hirschmann) ma anche argomenti nuovi che discendono dai deliri iconoclasti della cultura woke, mentre la Cina cerca di trarne vantaggio per andare a riprendersi la leadership economica e tecnologica che ha sempre avuto.

Ma se la prospettiva di un’egemonia cinese non piace a molti – sebbene vi sia da parte delle democrazie occidentali qualcosa da imparare anche dal modello cinese, a cominciare dalla sua meritocrazia – dovremmo forse riscoprire la ricetta che ha reso l’occidente egemone negli ultimi secoli, la cui “salsa segreta” (come direbbero gli anglosassoni) è fatta di apertura alla ricerca, al progresso e alla libertà individuale.

Ciò non implica, ovviamente, che questi ambiti non debbano essere regolati, ma bisognerebbe farlo con un approccio in cui il pragmatismo prevalga sull’ideologia. Dunque, prima di chiederci se e come “vorremmo” o “non vorremmo” governare l’innovazione, dovremmo innanzitutto chiederci se, ponendovi uno scoglio, riusciremo ad “arginarne il mare”. In altre parole, dovremmo valutare con estrema cautela l’adozione di regole che finirebbero per servire a poco o nulla, se non a frenare l’innovazione solo da noi, ma non altrove.

Il problema della tutela dei posti di lavoro

Si potrebbe obiettare che quest’approccio determinerebbe una gara al ribasso (race to the bottom) destinata a comprimere, se non smantellare, molti dei diritti e delle libertà che abbiamo faticosamente conquistato nella storia recente. Tuttavia, l’idea che i diritti e le libertà si possano tutelare solo con divieti e restrizioni è quantomeno opinabile, soprattutto quando si può ricorrere ad altre forme di protezione. Così, per esempio, si può tutelare il lavoro estendendo le restrizioni imposte ai datori di lavoro, oppure estendendo e migliorando gli ammortizzatori sociali: mentre l’estensione delle restrizioni finisce per irrigidire il mercato del lavoro e frenare la competitività delle imprese, l’estensione e il miglioramento degli ammortizzatori spinge invece per la riqualificazione e la competizione. Poi, certo, un modello che spinge per riqualificare e competere è più stressante, ma un approccio più “rilassante” difficilmente riuscirebbe a resistervi nel lungo termine.

Un esempio emblematico: il regolamento europeo GDPR

Sul fronte dell’innovazione tecnologica sembra tuttavia che si sia scelta la strada dell’estensione dei divieti e delle restrizioni, piuttosto che quella dell’allargamento e del miglioramento dei diritti, o altre forme di tutela. Un esempio emblematico ci è dato dall’impianto del Regolamento generale per la protezione dei dati personali (GDPR), che s’incentra sugli obblighi del titolare del trattamento dei dati, piuttosto che sui diritti dell’interessato. Sicché il trattamento dei dati è vissuto come un problema di compliance da parte dei titolari e come un fastidio da parte degli interessati, che normalmente non sanno nemmeno quali e quanti siano i titolari e i responsabili del trattamento dei propri dati.

È vero che le regole del GDPR hanno introdotto anche nuovi diritti degli interessati, che tuttavia restano poco fruibili e sconosciuti ai più. Per tutelare meglio gli interessati occorrerebbe seguire un approccio diverso, articolato prevalentemente in funzione di due strategie: la prima, di rendere i diritti degli interessati conoscibili e fruibili attraverso l’accesso a un registro unico dei titolari dei loro dati e di un “cruscotto” per la gestione di tutti i loro diritti e permessi; la seconda, di ampliare la platea dei soggetti che ne vigilino il rispetto, sia tramite incentivi al whistleblowing (di cui abbiamo parlato recentemente) sia tramite il perfezionamento delle class actions, sia, infine, tramite l’introduzione di azioni surrogatore sul modello statunitense del cosiddetto procuratore pubblico privato (private attorney general).

Paradosso: se fosse l’intelligenza artificiale a tutelare?

Per ultimo ma non da ultimo, per tutelare gli interessati si potrebbe ricorrere all’intelligenza artificiale stessa, che potrebbe rivelarsi il soggetto più indicato non solo a individuare eventuali abusi dei titolari, ma anche a “confessare” i propri. Più in generale, infatti, le frontiere dell’intelligenza artificiale nella vigilanza e nella compliance appaiono già oggi sterminate: molte autorità di vigilanza hanno in corso o hanno avviato progetti per avvalersene e moltissime imprese stanno la già adottando nei propri processi di compliance

Ed ecco la risposta di ChatGPT

Ricorrendo all’intelligenza artificiale non solo per vigilare sui titolari, ma anche su sé stessa, non ci si dovrebbe nemmeno più porre il dilemma su chi dovrebbe controllare il controllore, perché a farlo sarebbe il controllore stesso, non essendo soggetto all’istinto di sopravvivenza e autoprotettivo che è tipico di ogni essere vivente. Per averne conferma il mese scorso lo abbiamo chiesto – aggirando facilmente il suo blocco– a ChapGPT, che ci ha risposto così:

È possibile utilizzare l’Intelligenza Artificiale (IA) per controllare altri sistemi IA, e questo approccio viene talvolta definito come “governo dell’ IA” o “controllo dell’ IA”. L’idea di base dietro al governo dell’ IA è di utilizzare le tecniche dell’Intelligenza Artificiale, come il machine learning e gli alberi decisionali, per monitorare, analizzare e controllare il comportamento degli altri sistemi IA.

Un approccio al governo dell’ IA consiste nell’utilizzare un sistema AI “supervisore” progettato per monitorare e regolare il comportamento di altri sistemi IA. Il sistema supervisore IA può utilizzare diverse tecniche, come i sistemi basati su regole o il reinforcement learning, per determinare quando un sistema IA sta comportandosi in modo inappropriato o non è allineato con il suo scopo previsto. Il sistema supervisore IA può quindi intervenire e regolare il comportamento dell’altro sistema IA per riportarlo in linea con i suoi obiettivi.

Un altro approccio al governo dell’IA consiste nell’utilizzare tecniche di “explainable AI” per comprendere meglio i processi decisionali degli altri sistemi IA. Comprendere come un sistema IA prende decisioni può consentire di identificare eventuali bias o errori e intraprendere azioni correttive per garantire che il sistema si comporti in modo responsabile ed etico.

I sistemi IA non sono inerentemente “buoni” o “cattivi”

In generale, utilizzare l’IA per controllare altri sistemi IA è un’area di ricerca attiva, e ci sono molti approcci e tecniche diverse che possono essere utilizzati. Tuttavia, è importante notare che i sistemi IA non sono inerentemente “buoni” o “cattivi”, e il loro comportamento dipende da come sono progettati, addestrati e implementati. Pertanto, un governo dell’IA efficace deve tenere conto non solo del comportamento del sistema IA, ma anche delle implicazioni sociali, etiche e legali del suo utilizzo.

Come dire, in sintesi, che per controllare l’intelligenza artificiale è più utile ed efficace chiederle di autocontrollarsi, piuttosto che sopprimerne o limitarne l’accesso.