Dal gaming nuove strade per l’AI: il laboratorio del futuro

scritto da il 02 Ottobre 2025

Post di Giacomo Barone, CEO di Hiop

Il settore dell’intelligenza artificiale generativa (GenAI) sta attraversando una fase di crescita esponenziale, con un valore di mercato di 21.3 miliardi di dollari e una crescita prevista a un CAGR del 24,3% tra il 2025 e il 2034. Altre fonti stimano numeri anche superiori: Precedence Research indica 37,89 miliardi di dollari nel 2025, con crescita al CAGR 44,2 %, fino a raggiungere 1005 miliardi entro il 2034; The Business Research Company prefigura invece 113,42 miliardi nel 2029, con un CAGR del 34,7 % dal 2025. A trainare questa espansione sono i continui investimenti delle big tech, l’adozione di tale tecnologia in settori eterogenei – dalla sanità alla finanza, fino al manifatturiero – e la diffusione di applicazioni sempre più integrate nella vita quotidiana, dai servizi di customer care automatizzati agli strumenti creativi per immagini, testi e video: dal testo predittivo di Gmail o WhatsApp, a ChatGPT e ai traduttori come DeepL, fino alle funzioni di fotoritocco intelligente come Magic Eraser di Google Pixel.

In questo scenario in continua evoluzione, il mondo del gaming si conferma uno dei protagonisti più promettenti. I dati parlano chiaro: il mercato globale dell’AI nei videogiochi è destinato a raggiungere i 27,47 miliardi di dollari tra il 2025 e il 2029, espandendosi con un tasso di crescita annuo composto (CAGR) del 42,3%. Ma il gaming non è semplicemente un consumatore di tecnologie AI; è il settore che ne ha reso possibile le funzioni e l’utilizzo che conosciamo oggi. Una connessione profonda che affonda le radici nella storia della tecnologia moderna e che potrebbe ripetersi ancora una volta, aprendo la strada a una nuova trasformazione. Per comprendere appieno questa dinamica, dobbiamo tornare indietro di trent’anni, quando l’intelligenza artificiale di oggi deve la sua esistenza a una tecnologia nata per uno scopo completamente diverso: far girare i videogiochi.

All’inizio degli anni ’90, i progettisti di Nvidia, colosso tech statunitense leader mondiale nel computing con intelligenza artificiale, non stavano pensando all’AI – come la conosciamo oggi – quando svilupparono le prime GPU (Graphics Processing Unit). Il loro obiettivo era semplicemente risolvere una sfida specifica del gaming: un videogioco deve mostrare, in tempo reale, ombre, luci e colori per milioni di pixel su schermo. Ogni singola operazione è relativamente semplice, ma deve essere ripetuta milioni di volte per ogni frame, sessanta volte al secondo. La GPU funziona infatti come un “pennello automatico”: ogni calcolo è come lanciare una singola goccia di colore; ma se si lanciano milioni di gocce insieme si ottiene la Gioconda.

Il momento di svolta arrivò nei primi anni 2000, quando alcuni ricercatori si accorsero che le GPU potevano essere utilizzate non solo per la grafica, ma anche per calcoli matematici complessi. Nvidia colse immediatamente l’opportunità e nel 2007 rilasciò ufficialmente CUDA (Compute Unified Device Architecture), una piattaforma software che permetteva di utilizzare le GPU per calcoli scientifici generali. Oggi, le GPU A100 Tensor Core di Nvidia che sono diventate i motori di addestramento più ambiti per ChatGPT e altre AI generative.

Il passo successivo fu quasi naturale: usare le schede grafiche (GPU), nate per i videogiochi, per addestrare l’intelligenza artificiale. Le reti neurali esistevano dagli anni ’80, ma erano troppo complesse e lente per essere utili davvero. Con l’arrivo delle GPU, improvvisamente i calcoli potevano essere eseguiti migliaia di volte più velocemente. Questo rese possibile addestrare modelli sempre più sofisticati, come AlexNet, la rete sviluppata nel 2012 da Krizhevsky, Sutskever e Hinton che rivoluzionò il riconoscimento delle immagini e segnò l’inizio del deep learning moderno. Fu un cambio di paradigma rispetto a esperienze precedenti come IBM Deep Blue, il supercomputer che nel 1997 sconfisse Garry Kasparov a scacchi basandosi sulla forza dei calcoli. Da lì in avanti, l’AI smise di essere un sogno da supercomputer e iniziò a correre anche su normali PC da gaming. In pratica, miliardi di dollari investiti nell’industria videoludica hanno finito per finanziare, senza volerlo, la rivoluzione dell’intelligenza artificiale che stiamo vivendo oggi.

Forti di questo successo, tutti i grandi player dell’AI stanno oggi investendo cifre esorbitanti nella costruzione di mega data center pieni di GPU sempre più potenti. OpenAI con ChatGPT, Google con Bard, Microsoft con Copilot: tutti puntano su modelli sempre più grandi che richiedono cluster di GPU H100 da centinaia di milioni di dollari. È una corsa al gigantismo dove vince chi riesce a costruire l’infrastruttura più potente e costosa.

Tuttavia, questo modello presenta due limitazioni fondamentali: la prima è la dipendenza dalla connessione: in parole semplici, ogni richiesta deve viaggiare dal dispositivo dell’utente fino al data center e tornare indietro. Questa latenza può essere accettabile per un chatbot, ma diventa complessa per applicazioni real-time come i videogiochi, dove anche pochi millisecondi di ritardo possono rovinare l’esperienza dell’utente. La seconda sfida riguarda i costi: mantenere e far girare questi mega data center costa miliardi. OpenAI spende centinaia di milioni all’anno solo per l’infrastruttura, costi che deve recuperare attraverso abbonamenti e API a pagamento, rendendo l’AI avanzata accessibile solo a chi può permettersela.

Come evidenziato dall’analisi di uno studio del MIT, il 95% delle aziende che hanno sperimentato l’AI generativa non hanno ottenuto risultati significativi, principalmente a causa della scarsa qualità dei dati e dei costi elevati per alimentare la crescita. Il rischio, secondo alcuni analisti, è di ripetere l’errore di IBM: puntare tutto sui mainframe mentre altri innovavano con personal computer e microprocessori. Se la traiettoria dell’AI si spostasse verso modelli più piccoli e portatili, gli investimenti miliardari nei mega data center rischierebbero di trasformarsi in capitale immobilizzato.

Ed è proprio qui che entra in scena, ancora una volta, il mondo del gaming. Mentre i giganti dell’AI investono in infrastrutture sempre più centrali e costose, una parte della comunità gaming e di ricerca sta esplorando la direzione opposta: algoritmi più piccoli, ottimizzati e capaci di girare direttamente sui dispositivi degli utenti. Questa tendenza, nota come “edge computing” o “tiny machine learning”, potrebbe rivoluzionare completamente il paradigma dell’AI. Un videogioco, per sua natura, non può permettersi la latenza di una connessione remota: tutto deve funzionare in tempo reale sul PC o sulla console del giocatore.

Gaming

Mentre OpenAI, Google e Microsoft costruiscono i “mainframe dell’AI”, piccoli team di sviluppatori stanno potenzialmente creando le “AI personali” del futuro. E come nel caso dei PC, il gaming potrebbe essere il catalizzatore che trasforma questa tecnologia da nicchia a mainstream (designed by Freepik)

Il gaming rappresenta quindi il banco di prova perfetto per testare e sviluppare questa nuova generazione di AI. Un esempio concreto di questa direzione è il lavoro di Piero Molino, ceo e co-founder di Studio Atelico, che ha creato un prototipo di videogioco dove ogni personaggio non giocante (NPC) ha un background, una personalità e obiettivi propri.

Una volta inseriti nel gioco, questi personaggi iniziano a interagire spontaneamente, ricordando eventi passati e modificando il loro comportamento nel tempo. Il risultato è stato sorprendente: partendo da un prompt apparentemente banale (“Oggi è il tuo compleanno”), gli NPC hanno iniziato a interagire autonomamente. Il personaggio “festeggiato” ha comunicato la notizia agli altri, che si sono organizzati spontaneamente per preparargli una festa a sorpresa. Dopo alcune ore di simulazione, i ricercatori li hanno trovati effettivamente riuniti a celebrare, con inviti, decorazioni e partecipanti – tutto creato autonomamente dall’AI senza alcun intervento umano.

Questo apre scenari rivoluzionari: videogiochi davvero “a mondo aperto” dove ogni conversazione viene ricordata, ogni azione ha conseguenze durature, e la storyline si evolve dinamicamente in base alle interazioni dei giocatori. Un ecosistema vivo dove l’esperienza di gioco è unica e irripetibile per ogni utente. La chiave di questo esperimento sta nell’inference locale: tutto gira direttamente sul computer del giocatore, sfruttando le GPU consumer già ampiamente diffuse. Nessuna connessione internet richiesta, nessun costo aggiuntivo per il giocatore, nessuna dipendenza da servizi esterni.

Mentre OpenAI, Google e Microsoft costruiscono i “mainframe dell’AI”, piccoli team di sviluppatori stanno potenzialmente creando le “AI personali” del futuro. E come nel caso dei PC, il gaming potrebbe essere il catalizzatore che trasforma questa tecnologia da nicchia a mainstream. Naturalmente, questa transizione non sarà immediata né priva di sfide, siamo agli inizi: i dispositivi consumer hanno limitazioni di memoria e potenza computazionale, serve un ecosistema di strumenti standardizzati per sviluppare AI gaming ottimizzate, e i modelli “mini” devono mantenere prestazioni accettabili nonostante le dimensioni ridotte.

Tuttavia, le opportunità sembrano superano ampiamente gli ostacoli: la democratizzazione permetterà a chiunque di accedere ad AI avanzate senza spese inaccessibili, gli sviluppatori indipendenti potranno sperimentare senza dover accedere a infrastrutture multimilionarie, le AI si adatteranno completamente allo stile e alle preferenze del singolo utente, e i sistemi distribuiti saranno più resistenti a guasti rispetto a servizi centralizzati.

Il gaming si conferma, quindi, un laboratorio per l’innovazione tecnologica. È già successo con le GPU, che hanno reso possibile l’AI moderna, e potrebbe succedere di nuovo con l’intelligenza artificiale generativa. Una trasformazione che questa volta non sarà centralizzata nelle mani di pochi colossi, ma distribuita direttamente nelle case e nei dispositivi di chiunque voglia giocare, sperimentare e creare. Il gaming, più di ogni altro settore, ha dimostrato di avere il potere di trasformare l’impossibile in quotidiano, il costoso in accessibile, il complesso in divertente. E se la storia ci ha insegnato qualcosa, è che quando il gaming si muove in una direzione, il resto del mondo tecnologico prima o poi segue.