AI e dilemmi: dati, etica, lavoro. Ma servono responsabilità e flessibilità

scritto da il 14 Giugno 2023

Post di Massimiliano Masnada, avvocato, Partner Hogan Lovells – 

L’Intelligenza Artificiale (AI) è una delle tecnologie più trasformative e di impatto socio-economico che si possa immaginare. Non a caso, il co-fondatore di Microsoft, Bill Gates ha affermato che lo sviluppo dell’AI è il progresso tecnologico più importante degli ultimi decenni. In un post sul suo blog personale, ha paragonato l’AI ad altre innovazioni tecnologiche che sono state idonee, in passato, a trasformare per sempre i paradigmi del vivere sociale e dell’economia come la creazione del microprocessore, del personal computer, di Internet e del telefono cellulare.

La modifica radicale degli assetti socio-economici 

Lo sviluppo dell’AI non è isolato ma si inquadra in un processo graduale di digitalizzazione, nel quale le informazioni, personali e non, hanno definitivamente acquisito un valore economico e strategico. La tecnologizzazione crescente e la digitalizzazione dei processi produttivi e di distribuzione ha comportato inevitabilmente la modifica radicale degli assetti socio-economici condivisi. Si assiste alla valorizzazione dei giacimenti informativi a fini statistici e di ricerca, sia in campo pubblico, per l’analisi, la valutazione e la pianificazione delle politiche di sviluppo e ridistributive, oltre che per il miglioramento, l’efficacia e la economicità dei servizi della pubblica amministrazione; sia in capo privato, per l’analisi delle tendenze del mercato, per avvicinare l’offerta alla domanda, per aumentare la competitività mediante l’innovazione dei processi produttivi e la qualità dei prodotti e servizi.

AI, non conta soltanto la protezione dei dati

E’ indubbio che l’avvento dell’AI e la sua evoluzione in tempi rapidi pongono questioni essenziali da molti punti di vista, non solo da quello della protezione dei dati – su cui sembra essersi fossilizzato il dibattito degli ultimi mesi – ma anche quello dell’etica e della ricerca scientifica, della tutela della proprietà intellettuale, dell’assistenza sanitaria, dei rapporti di lavoro e delle dinamiche sindacali, dello sviluppo dei prodotti, della responsabilità civile, della sicurezza dei sistemi, delle comunicazioni e finanche del mondo finanziario. Siamo tutti d’accordo, che l’AI ha un potenziale illimitato ed è in grado di portare grandi benefici all’umanità, ma allo stesso tempo deve essere affrontata con le necessarie cautele.

E’ innegabile che il panorama normativo sia sempre un passo indietro rispetto all’innovazione tecnologica. Il legislatore, anche quello sovranazionale che è l’unico in grado di governare fenomeni globali come quello dell’AI, fa fatica a stare al passo con l’innovazione tecnologica e con le nuove sfide che essa pone ogni giorno. Non a caso, da molte parti si afferma che la bozza di Regolamento UE in tema di AI, ancora in discussione, è di fatto già superata dallo sviluppo esponenziale degli algoritmi di AI, quale, ad esempio, ChatGPT o Bard. In alcuni casi, i quadri normativi esistenti vengono applicati o adattati tenendo conto della portata innovativa dell’AI. In altri casi, si stanno sviluppando nuovi paradigmi complessi in alcune delle aree cruciali del mercato.

Diritti fondamentali a rischio o umanità più prospera?

La sfida è trovare la strada attraverso la quale l’AI realizzi uno strumento i cui benefici siano nelle mani di tutti o di molti, idoneo a favorire il progresso dell’umanità; un mezzo per rendere l’umanità migliore, più prospera, più sicura, con maggiore certezze piuttosto che qualcosa che mette a rischio i diritti fondamentali della persona ovvero i diritti acquisiti generando sacche di disparità e aumentando il divario tra benessere e povertà. In questi tempi di scoperte, ci sono posizioni diverse su come questo possa essere raggiunto.

AI, potrebbe finire molto male come teme Altman?

Ciononostante, anche chi è culturalmente refrattario a porre troppe regole che condizionino il mercato e lo sviluppo tecnologico, si rende conto che l’AI genera preoccupazione per gli inevitabili cambiamenti che questa nuova tecnologia porta con sé e invoca la necessità di avere regole, normative e controlli rigorosi. Basti leggere le recenti dichiarazioni di Sam Altman, fondatore di OpenAI e inventore di ChatGPT, il quale nel corso di una audizione al Senato degli Stati Uniti si è detto convinto che le nuove tecnologie dell’intelligenza artificiale offriranno all’umanità vantaggi che eccedono ampiamente i rischi ma non ha affatto sottovalutato i pericoli: «Se questa tecnologia (l’intelligenza artificiale, ndr) andasse male, le cose potrebbero finire molto male: dobbiamo dirlo ad alta voce e lavorare col governo per evitare che ciò accada», ha dichiarato Altman.

AI

Sam Altman, il creatore di ChatGPT

Troppe regole o troppo poche

Invero, in un’area di sviluppo tecnologico con le tante complessità connesse come l’AI, pensare a un approccio a regolamentazione zero comporta il rischio di sprecare, o in qualche modo annacquare, i potenziali benefici derivanti dall’IA e di aggravare i conflitti sociali. A sua volta, anche l’eccesso di regolamentazione (così come le posizioni proibizioniste) non è probabilmente benefico, in quanto rallenterebbe il progresso. Prendiamo ad esempio quello che sta succedendo in due in due settori nevralgici come quello della ricerca e della finanza, ponendo alcune riflessioni in termini di tutele per gli interessati.

Nel settore della ricerca scientifica l’utilizzo di algoritmi di AI sta consentendo e consentirà di fare passi da gigante, nemmeno immaginati finora, verso lo sviluppo di cure di malattie rare e comuni. Recentemente una azienda farmaceutica ha dichiarato che sarà in grado, entro il 2030, di produrre vaccini mRNA per la cura del cancro e delle malattie cardiovascolari. Ebbene, per arrivare a tali risultati non si può prescindere dall’utilizzo e dell’addestramento di algoritmi di AI che consentiranno di isolare proteine ed analizzarle come finora non è stato possibile fare.

Dati personali e AI: bilanciare interessi contrapposti

Non si potrà prescindere tuttavia dall’avere accesso ad informazioni e dati idonei ad alimentare e addestrare gli algoritmi di AI, rendendoli sempre più precisi ed efficaci allo scopo cui sono votati. Ad esempio, come correttamente affermato da numerosi virologhi e studiosi, per l’addestramento degli algoritmi di AI che serviranno ad elaborare un efficace vaccino per la cura del cancro, non si potrà prescindere dall’utilizzo massivo dei risultati di studi di settore ovvero di singoli esami diagnostici digitalizzati. Occorre cioè creare un flusso di informazioni tra centri di ricerca, laboratori, istituti di cura oncologica, industrie farmaceutiche e distributori per consentire di alimentare algoritmi di AI che lavorino sulla data analysis e sulla creazione di cure e vaccini sempre più costruiti sul singolo paziente e sulle sue specifiche esigenze.

Ciò pone questioni di protezione dei dati personali? Certo, ma la risposta non può essere quella tranchant del diniego ma bisogna cercare un bilanciamento tra interessi contrapposti, tenendo presente che si va formando in tal caso un interesse collettivo e pubblico al secondary use dei dati per lo sviluppo e la ricerca in settori chiave come quello della cura del cancro.

L’evoluzione nella Finanza

Anche nel settore finanziario, la disponibilità di grandi quantità di informazioni (sia singole che sotto forma aggregata di Big Data), connessa all’utilizzo di servizi di hosting, software di AI open-source e di infrastrutture avanzate, come le unità di elaborazione grafica (GPU), per addestrare e sviluppare sistemi di AI più sofisticati, hanno tutti hanno contribuito alla graduale modifica dei paradigmi tradizionali del settore dei servizi finanziari.

L’AI ha iniziato a trasformare i modelli di business delle istituzioni finanziarie e delle FinTech. I fornitori hanno iniziato a offrire l’AI come servizio (AIaaS), ovvero un’offerta di servizi di outsourcing dell’AI basata sul cloud, e le istituzioni finanziarie stanno integrando le soluzioni di AI e soluzioni di machine learning (ML) nella loro catena di fornitura. Più istituzioni finanziarie stanno strutturando i loro modelli di business non più semplicemente B2B o B2C, ma B2B2C o B2B2B, agendo spesso come un intermediario che acquista soluzioni di AI da terze parti e le offre ai loro clienti come parte di un pacchetto di prodotti.

Alcuni usi comuni della tecnologia AI ed ML da parte degli istituti finanziari includono: Chatbot, robo-advisor, sistemi antifrode e di controllo antiriciclaggio di denaro, controlli AML e KYC, valutazione del merito creditizio e di convenienza economica, e la valutazione del rischio assicurativo. Questi servizi facilitati dall’AI e dall’apprendimento automatico di ML consentono agli istituti finanziari di offrire prodotti personalizzati e diversificati ai loro clienti in modo efficiente dal punto di vista dei costi. Anche in questo caso si pone tuttavia la necessità di proteggere i dati personali degli interessati da usi distorti e, soprattutto, occorre tutelare la trasparenza delle operazioni di trattamento, garantendo la pienezza dei diritti privacy, dal semplice accesso, alla rettifica e aggiornamento, alla cancellazione e opposizione per ragioni legittime.

Serve responsabilità in attesa delle regole

In questo contesto, ognuno deve fare la sua parte con grande responsabilità. In attesa dei necessari interventi legislativi e regolatori, occorre utilizzare e interpretare le norme esistenti con un certo grado di flessibilità, rispettando i principi di fondo ma essendo anche in grado di pensare fuori dagli schemi, senza perdere di vista l’obiettivo di bilanciare gli interessi contrapposti. Prendendo in prestito il famoso slogan di Google: Don’t be evil! Questo è solo l’inizio della rivoluzione dell’AI. Il risultato è ambizioso: rendere lo sviluppo dell’AI sicuro, responsabile e conforme, nell’interesse del benessere e del progresso umano.