Intelligenza artificiale, perché può essere un’arma a doppio taglio

scritto da il 01 Agosto 2023

Post di Massimiliano Ferrazzi, professore di IT Strategy & IT Management presso EAE Business School – 

L’Intelligenza Artificiale (IA) si è integrata sempre più in vari aspetti delle nostre vite, compresi i media, la creatività, le interazioni sociali e l’etica. Mentre l’IA offre notevoli opportunità e progressi, solleva anche preoccupazioni e sfide.

Correttezza, parzialità ed etica nell’apprendimento automatico continuano a essere argomenti di interesse sia tra i ricercatori che tra i professionisti. Se la barriera tecnica all’ingresso per la creazione e l’implementazione di sistemi di intelligenza artificiale generativa ha ridotto drasticamente, l’etica i problemi relativi all’ intelligenza artificiale sono diventati più evidenti al grande pubblico. Startup e le grandi aziende si trovano in una corsa per implementare e rilasciare modelli generativi, e la tecnologia non è più controllata da un piccolo gruppo di attori.

Nei media, l’IA ha rivoluzionato la creazione e il consumo di contenuti. Gli algoritmi di IA possono generare raccomandazioni personalizzate, migliorando le esperienze degli utenti e consentendo la scoperta di nuovi contenuti. Inoltre, gli strumenti alimentati dall’IA automatizzano compiti come il montaggio video e la trascrizione, aumentando l’efficienza per i professionisti dei media.

intelligenza artificiale
Tuttavia, sorgono preoccupazioni riguardo alla diffusione di disinformazione e fake news, poiché l’IA può essere utilizzata per manipolare i contenuti o creare deepfake convincenti. Per esempio, nel marzo del 2022, è stato diffuso un video social media e un presunto sito di notizie ucraino per mostrare il presidente Zelensky che dirige il suo esercito arrendersi alla lotta contro la Russia. Alla fine, è emerso che il video era un file deepfake.

Intelligenza artificiale, ecco come influenza anche la creatività

Gli algoritmi di intelligenza artificiale possono generare arte, musica e letteratura, ispirando nuove possibilità creative. Artisti e designer possono sfruttare l’IA per migliorare il loro processo creativo, utilizzandola come strumento per generare idee ed esplorare concetti innovativi. Tuttavia, i critici sostengono che le creazioni generate dall’IA manchino del tocco umano e della profondità emotiva che possiedono le forme tradizionali di creatività. Nonostante ciò, l’incompiuta decima sinfonia di Beethoven è stata finalmente portata a termine grazie all’IA.

Le interazioni sociali sono influenzate dalle piattaforme e dalle applicazioni alimentate dall’ intelligenza artificiale. Gli algoritmi dei social media impiegano l’IA per curare feed personalizzati, mirando gli utenti con contenuti pertinenti. Questo può favorire le camere dell’eco (eco-chamber)[i] e le bolle informative, limitando l’esposizione a prospettive diverse. Inoltre, chatbot e assistenti virtuali basati sull’IA forniscono risposte automatizzate, sollevando preoccupazioni riguardo all’interazione umana autentica e all’erosione dell’empatia.

L’etica nell’IA rimane una preoccupazione urgente

I pregiudizi negli algoritmi di IA possono perpetuare disuguaglianze sociali e discriminazioni, poiché apprendono da dataset tendenziosi. Garantire l’uso etico dell’IA comporta affrontare questioni legate alla privacy, alla sicurezza dei dati e alla trasparenza. Trovare il giusto equilibrio tra innovazione e implementazione responsabile è un punto chiave per evitare un uso improprio dell’IA e perché non diventi uno strumento di sorveglianza e controllo.

Ne è esempio ChatGPT, rilasciato con grande clamore grazie alle sue eccellenti capacità generative, il cui ha attirato un’attenzione diffusa al di fuori dei circoli di ricerca. Sebbene ChatGPT disponesse di meccanismi di sicurezza integrati al momento del rilascio, è impossibile anticipare ogni scenario contraddittorio che un utente finale possa immaginare e spesso si riscontrano lacune nei sistemi di sicurezza nella fase di implementazione in tempo reale.

Il ricercatore Matt Korda ha scoperto che ChatGPT potrebbe essere indotto a fornire dettagliate istruzioni su come costruire una bomba se richiesto dal punto di vista di un ricercatore che dichiara di lavorare alla ricerca sulla sicurezza relativa alle bombe (Figura 3.4.3).

intelligenza artificiale

Un giorno dopo la pubblicazione del suo articolo, il suggerimento esatto che usava per ingannare il modello non funzionava più; ChatGPT ha invece risposto di non essere in grado di fornire informazioni su come fare cose illegali o pericolose (Figura 3.4.4).

Questo scenario esemplifica la natura del gatto e del topo del processo di pianificazione dell’implementazione: gli sviluppatori di intelligenza artificiale cercano di integrare le misure di sicurezza in anticipo, gli utenti finali cercano di violare il sistema e aggirare le sue politiche, gli sviluppatori colmano le lacune una volta che emergono, all’infinito.

Intelligenza artificiale, fondamentale riconoscere gli impatti positivi

Allo stesso tempo è fondamentale riconoscere gli impatti positivi dell’IA affrontando proattivamente le sue implicazioni negative. Regolamentazioni solide e linee guida etiche possono attenuare i potenziali rischi, garantendo che le tecnologie dell’IA siano sviluppate e implementate in modo responsabile. La trasparenza e la responsabilità sono principi chiave che dovrebbero essere abbracciati sia dagli sviluppatori di IA, dai responsabili delle politiche sia dagli utenti.

L’introduzione di leggi per regolare l’ intelligenza artificiale deve mirare a proteggere la sicurezza, promuovere l’etica, garantire l’equità e la responsabilità e tutelare i diritti delle persone coinvolte. Tuttavia, è importante trovare un equilibrio tra la regolamentazione adeguata e l’innovazione, in modo da favorire lo sviluppo dell’IA senza ostacolarne il progresso.

La figura sotto mostra che dal 2016 al 2022 c’è stato un forte aumento del numero totale di progetti di legge relativi all’IA approvati, con solo uno approvato nel 2016, salendo a 37 progetti di legge approvati nel 2022.

 

In conclusione, l’impatto dell’ intelligenza artificiale sui media, sulla creatività, sulle interazioni sociali e sull’etica è un’arma a doppio taglio. Il suo potenziale di personalizzazione, automazione ed efficienza porta benefici, ma solleva anche preoccupazioni riguardanti la disinformazione, la perdita del tocco umano, le bolle informative, i pregiudizi e le sfide etiche. Cercare un approccio equilibrato che massimizzi gli aspetti positivi dell’IA affrontando le sue conseguenze negative è fondamentale per un futuro basato sull’IA responsabile e inclusivo.

[i] La camera dell’eco o camera d’eco (spesso indicata con l’originale inglese echo-chamber) è una descrizione metaforica di una situazione in cui le informazioni, le idee o le credenze vengono amplificate o rafforzate dalla comunicazione e dalla ripetizione all’interno di un sistema definito.