Gli algoritmi non bastano: il futuro dell’AI è scritto nel silicio

scritto da il 22 Ottobre 2025

Post di Emanuele Caronia, CEO di Exelab

Di pochi giorni fa la notizia che ha scosso il mondo Tech e ha riportato i riflettori sulla dicotomia hardware-software: OpenAI ha siglato un accordo senza precedenti con AMD che le permette di acquistare fino al 10% del capitale del produttore di chip a un prezzo simbolico di 1 centesimo per azione, trasformando il chipmaker in un contendente reale contro lo strapotere di Nvidia dall’oggi al domani. “Consideriamo questo accordo certamente trasformativo, non solo per AMD ma per le dinamiche dell’intero settore”, ha dichiarato infatti Forrest Norrod, vicepresidente esecutivo di AMD.

L’innovazione software non è mai stand-alone: si radica sempre in un substrato fisico, nel silicio, nel mondo della materia, nell’energia che alimenta i processori, nella terra che fornisce i materiali. Così come le criptovalute non esisterebbero senza l’elettricità e le macchine che la trasformano, i sistemi di intelligenza artificiale richiedono calcolo, architetture, chip: senza hardware non c’è algoritmo. In questo senso, ogni salto software è anche una rivoluzione hardware, anche quando ci sembra che tutto si svolga nel cloud o in una nuvola immateriale.

Ed è proprio questa dipendenza profonda fra materia e codice che oggi sta ridisegnando le alleanze industriali. Se l’intelligenza artificiale vuole crescere, ha bisogno di una nuova generazione di chip, di potenza di calcolo e di produttori disposti a investire in architetture dedicate. Ecco perché i giganti del software stanno stringendo patti sempre più stretti con chi forgia il silicio. L’accordo tra OpenAI e AMD è forse l’esempio più evidente e radicale di questa tendenza.

AI

Visitatori presso lo stand del produttore statunitense di chip Advanced Micro Devices (AMD) a un’esibizione a Hangzhou, nella provincia di Zhejiang nella Cina orientale. (Foto AFP)

In termini pratici, la startup di ChatGPT potrebbe entrare in possesso di circa 160 milioni di azioni AMD – una partecipazione valutata sul mercato attuale intorno ai 38 miliardi di dollari – pagando complessivamente solo 1,6 milioni di dollari. Questo diritto verrà maturato in tranche, legate al raggiungimento di precisi obiettivi: OpenAI si impegna ad acquistare sei gigawatt di potenza computazionale sotto forma di centinaia di migliaia di nuovi GPU AMD, inclusi i prossimi chip MI450, da qui al 2030[1][3]. In altri termini, AMD fornirà l’equivalente di un enorme super-computer (6 GW di capacità, all’incirca l’energia di 5 milioni di abitazioni) per alimentare i modelli di OpenAI.

In cambio, OpenAI ottiene l’opzione di diventare azionista di peso di AMD – un colosso da circa 383 miliardi di dollari di capitalizzazione – trasformando il chipmaker in un contendente reale contro lo strapotere di Nvidia dall’oggi al domani. “Consideriamo questo accordo certamente trasformativo, non solo per AMD ma per le dinamiche dell’intero settore”, ha dichiarato infatti Forrest Norrod, vicepresidente esecutivo di AMD. I mercati hanno reagito con entusiasmo: le azioni AMD sono balzate di oltre 34% in un solo giorno, aggiungendo circa 80 miliardi al valore di borsa dell’azienda. Persino Jensen Huang, CEO della rivale Nvidia, si è detto sorpreso dalla mossa audace di AMD, definendola “fantasiosa, unica e sorprendente… sono sorpreso che abbiano ceduto il 10% della società prima ancora di costruire il prodotto. In ogni caso è una mossa astuta, suppongo”.

Perché questa notizia non mi stupisce (troppo)

La portata di questo accordo può sembrare clamorosa, eppure non è del tutto sorprendente per chi osserva la rapidissima evoluzione dell’industria dell’AI generativa. Siamo di fronte a un ecosistema in cui i protagonisti – dai produttori di chip ai creatori di modelli AI – stanno stringendo alleanze circolari e investimenti incrociati per sostenere un’insaziabile fame di potenza di calcolo. Basti pensare che appena un mese prima Nvidia aveva annunciato un accordo complementare: un investimento fino a 100 miliardi di dollari in OpenAI nell’arco del prossimo decennio, con l’impegno da parte di OpenAI ad adottare almeno 10 gigawatt di infrastrutture Nvidia.

AI

Il logo di OpenAI e quello di NVidia, leader mondiale nei processori per intelligenza artificiale (REUTERS/Dado Ruvic/Illustration)

In altre parole, i fornitori di hardware finanziano (o cedono quote di capitale a) chi sviluppa intelligenza artificiale, che in cambio garantiscono ordini giganteschi di chip. Bloomberg ha coniato il termine affari “circolari” per descrivere questi intrecci miliardari. Nvidia investe in OpenAI, che con quei soldi compra chip Nvidia; Oracle fornisce servizi cloud a OpenAI e contemporaneamente acquista GPU Nvidia; CoreWeave – società di infrastrutture partecipata al 7% da Nvidia – rivende potenza computazionale a OpenAI, ovviamente basata su chip Nvidia.

A confermare quanto l’AI dipenda dalle macchine è stato lo stesso Sam Altman, CEO di OpenAI. Qualche settimana fa Altman ha annunciato che alcune nuove funzionalità di ChatGPT – le più avanzate e compute-intensive – saranno disponibili solo per gli utenti del piano Pro da $200 al mese. Il motivo? Semplice: costano troppo in termini di potenza di calcolo per offrirle gratis. In un post su X Altman ha spiegato che lanceranno “nuove offerte ad alto consumo computazionale”, inizialmente limitandole agli abbonati Pro e con eventuali costi extra per le funzionalità più rivoluzionarie.

Come ha scritto lo stesso Altman, l’obiettivo resta ridurre aggressivamente i prezzi e rendere l’AI accessibile a tutti, ma intanto vuole “capire che cosa è possibile fare quando mettiamo molta potenza di calcolo al servizio di nuove idee interessanti“. Traduzione: spingere l’AI ai suoi limiti richiede di investire in una quantità enorme di hardware.

Dalle immagini Ghibli agli action figures: la mania che fonde i server

Negli ultimi anni l’intelligenza artificiale è entrata prepotentemente nella nostra vita quotidiana. Dallo smartphone che completa le frasi mentre scriviamo messaggi, alla TV che ci suggerisce il prossimo film da guardare, fino agli assistenti virtuali con cui chattiamo per risolvere problemi di lavoro.

E nelle aziende, l’AI è ormai la protagonista silenziosa di molti processi: dai customer service automatizzati, alle catene di montaggio ottimizzate, ai sistemi di analisi dati che supportano decisioni strategiche. I numeri parlano chiaro: nel 2024 ben il 78% delle aziende a livello globale dichiarava di utilizzare l’AI (era solo il 55% l’anno prima!). In altre parole, tre aziende su quattro hanno già integrato l’AI in almeno una funzione di business. E non parliamo solo di grandi imprese. Le persone comuni stanno trovando usi creativi dell’AI nella vita di tutti i giorni.

A marzo, le potenziate capacità generative di ChatGPT hanno scatenato trend virali sui social. Tutto è iniziato con le foto rielaborate in stile Studio Ghibli: grazie a un semplice prompt, migliaia di persone hanno iniziato a trasformare ritratti e scene quotidiane in immagini dai tratti tipici dei film d’animazione giapponesi. Subito dopo è esplosa la mania delle action figures create con l’AI. Gli utenti caricano le proprie foto e chiedono al chatbot di ricrearle come mini figure giocattolo confezionate in scatola da collezione. Sul web circolano versioni “in action figure” di chiunque. Il fenomeno è virale, alimentato da hashtag come #StarterPack e #ActionFigure.

Queste trovate creative, per quanto divertenti, hanno però avuto conseguenze reali. Il caso delle immagini in stile Studio Ghibli – esploso a fine marzo 2025 – ha riacceso le polemiche sul copyright, perché l’AI replicava in pochi minuti lo stile unico e handmade dei maestri giapponesi, sollevando accuse di plagio[12]. Ma non solo: l’ondata improvvisa di richieste ha mandato in tilt i server di ChatGPT. OpenAI ha dovuto fronteggiare un blackout del servizio durato alcune ore a causa del sovraccarico; lo stesso CEO Sam Altman ha esortato pubblicamente gli utenti a darsi una calmata con questi esperimenti perché i “server si stavano fondendo”.

AI

Sam Altman, ceo di OpenAI

In pratica, una semplice moda virale è bastata per spingere al limite l’infrastruttura di AI generativa, a riprova di quanto calcolo sia richiesto per soddisfare milioni di richieste in contemporanea.

Ogni volta che poniamo una domanda a ChatGPT, ogni volta che un algoritmo analizza grandi moli di dati per fornirci un risultato, c’è un computer – anzi, molti computer in parallelo – che lavora sodo per noi. Non è un caso se Altman, nel suo post, ha richiamato l’attenzione sugli alti costi dietro certe funzioni avanzate: modelli che interpretano immagini, generano video o conversano a voce richiedono un’enorme potenza di calcolo in tempo reale, e infatti vengono proposti solo a pagamento agli utenti.

I modelli di AI più avanzati sono “affamati” di compute, ossia di calcolo, e addestrarli richiede ancora più risorse. Basti pensare che, secondo uno studio di Stanford, la potenza di calcolo necessaria per il training dei modelli più complessi raddoppia circa ogni 5 mesi. Una crescita vertiginosa che spiega perché spesso le funzionalità all’avanguardia debbano essere offerte a pagamento – semplicemente, farle girare è costoso.

Potenza crescente, costi calanti: un ciclo virtuoso

A questo punto qualcuno potrebbe obiettare: “Tutta questa potenza extra non rischia di rendere l’AI un gioco costoso per pochi?”. In realtà sta accadendo il contrario. Ogni nuova generazione di hardware rende l’AI più accessibile e ne abbassa i costi. Secondo il rapporto AI Index 2025 di Stanford, le prestazioni per dollaro dell’hardware AI migliorano di circa il 30% all’anno, mentre l’efficienza energetica dei sistemi cresce del 40%[11]. Tradotto: a parità di budget, ogni anno che passa otteniamo quasi un terzo di potenza in più, e consumiamo meno energia.

Nel frattempo assistiamo a una corsa senza precedenti ai data center specializzati in AI. In tutto il mondo si stanno costruendo gigantesche infrastrutture per ospitare i server necessari a soddisfare tutta questa domanda di potenza di calcolo. Capannoni hi-tech, spesso sorvegliati come fortezze, che sono le nuove fabbriche dell’intelligenza artificiale: è lì, in scaffali pieni di chip e cavi, che prendono forma le magie digitali del nostro tempo.

Man mano che questa infrastruttura cresce, il costo unitario dell’AI si riduce. Pensiamo al modello GPT-3.5. Sembra passato un secolo ma era solo il 30 novembre 2022 che ChatGPT è stato presentato al mondo. A quell’epoca interrogare GPT-3.5 via API costava circa 20 dollari per ogni milione di token (una metrica che rappresenta un’approssimazione del numero di parole generate). Appena due anni dopo, nell’ottobre 2024, lo stesso identico lavoro costava circa 7 centesimi. Una riduzione di quasi 280 volte in poco meno di due anni!

Questo trend innesca un circolo virtuoso: hardware migliore → AI più economica → più applicazioni AI → ulteriori investimenti in hardware ancora migliore. Ogni avanzamento nei chip rende economicamente fattibile applicare l’AI in nuovi contesti. Fino ai nostri smartphone: oggi il telefono può ritagliare automaticamente una persona da una foto, o tradurre in tempo reale una conversazione, compiti che pochi anni fa avrebbero richiesto l’intervento di un supercomputer remoto.

Ora invece il chip nel nostro telefono fa tutto in locale. Più utilizziamo queste funzioni, più cresce la domanda di hardware ancora più potente ed efficiente per supportarle. La riduzione dei costi rende l’AI più democratica. Oggi anche una startup o un piccolo centro di ricerca possono accedere a potenze di calcolo che qualche anno fa erano riservate ai colossi, magari affittandole sul cloud per pochi dollari l’ora.

In pratica, la nuova generazione di chip sta abbattendo drasticamente il prezzo dell’AI, rendendola sempre più accessibile. Dunque non bisogna temere l’aumento di richiesta di compute: la curva evolutiva dell’hardware sta andando nella direzione giusta, abbassando le barriere economiche all’adozione dell’intelligenza artificiale.

La corsa multi miliardaria al silicio

Dietro a questi progressi c’è una pioggia di investimenti senza precedenti. Si può parlare, senza esagerare, di una nuova corsa all’oro hi-tech per costruire l’infrastruttura necessaria a supportare la crescita esplosiva dell’AI. Tutti i giganti tecnologici – Nvidia, AMD, OpenAI, Microsoft, Meta, Oracle, Google, Amazon, per citarne alcuni – stanno spendendo e investendo cifre da capogiro per assicurarsi un posto di primo piano nel futuro dell’intelligenza artificiale.

Qualche numero rende l’idea della scala: Meta ha annunciato una spesa di 600 miliardi di dollari in data center e infrastrutture AI entro il 2028[12]. Per comprendere l’enormità di queste cifre basti pensare che il PIL dell’Irlanda nel 2024 è stato di poco inferiore.

OpenAI, insieme a partner come Oracle e il fondo giapponese SoftBank, ha lanciato un’iniziativa chiamata Project Stargate, che prevede investimenti fino a 500 miliardi di dollari in infrastrutture AI negli Stati Uniti. A settembre 2025 il progetto aveva già annunciato cinque nuovi siti per data center, arrivando a quasi 7 gigawatt di capacità pianificata e oltre 400 miliardi di dollari di investimenti già impegnati nei successivi tre anni – in anticipo sulla tabella di marcia per assicurarsi entro fine 2025 l’impegno complessivo di 10 gigawatt e $500 miliardi.

Amazon, dal canto suo, spende oltre 30 miliardi di dollari a trimestre in infrastrutture cloud (ovviamente non solo per l’AI, ma l’AI è una fetta sempre più rilevante), e ha appena messo sul piatto 8 miliardi per sostenere la startup Anthropic nella corsa all’AI generativa. La situazione non può non sollevare anche qualche perplessità.

Secondo il Technology Report 2025 di Bain & Company, per finanziare in modo sostenibile l’espansione dei data center necessari all’AI serviranno circa 500 miliardi di dollari l’anno di investimenti, che a loro volta richiedono 2.000 miliardi di dollari di nuovi ricavi annui entro il 2030. Ed all’appello, mancano ancora 800 miliardi di dollari l’anno per chiudere il conto. In assenza di ricavi aggiuntivi questi investimenti infrastrutturali rischiano di essere sovradimensionati.

Per ora, però, nessuno vuole restare indietro. Anche i produttori di chip sono protagonisti di questa gara. Come abbiamo visto, Nvidia, la regina delle GPU, ha siglato un accordo da 10 gigawatt di potenza di calcolo con OpenAI per supportare i prossimi super-modelli, impegnandosi a investire fino a 100 miliardi di dollari per potenziare i data center della creatura di Sam Altman[16]. AMD ha stretto la partnership strategica con OpenAI in un accordo che prevede anche lo scambio azionario tra le due società. Oracle – che fino a pochi anni fa nessuno avrebbe associato all’AI – oggi costruisce AI Superclusters nei propri data center e, come partner di Stargate, co-finanzia infrastrutture AI per centinaia di miliardi.

E non dimentichiamo che dietro OpenAI c’è Microsoft che, oltre a investire direttamente in OpenAI, ha speso miliardi per allestire per l’azienda di Altman uno dei supercomputer più potenti al mondo sulla piattaforma Azure (oltre 10.000 GPU già nel 2021), e continua ad ampliarlo.

Hardware e software avanti di pari passo

C’è certamente molta frenesia in questi investimenti, ma nella corsa non ci sono solo startup ma i leader globali in ambito tecnologico. Da questo risulta chiaro che la scommessa sull’AI è sempre più forte e che per vincerla hardware e software devono avanzare di pari passo. Ogni dollaro investito in un data center AI è un dollaro investito nel futuro – un futuro in cui l’AI sarà pervasiva quanto l’elettricità, e in cui possedere l’infrastruttura adeguata sarà un vantaggio competitivo enorme.

È un momento entusiasmante, pieno di opportunità ma anche di sfide pratiche e strategiche. Non basta buttarsi sull’AI a occhi chiusi o adottare per primi l’ultima trovata basata sull’AI: serve visione strategica e capacità di guardare oltre l’hype del momento.

Non a caso, Bret Taylor – presidente di OpenAI – ha paragonato il boom attuale dell’AI alla bolla delle dot-com di fine anni ’90, avvertendo che oggi c’è forse un eccesso di entusiasmo e valutazioni gonfiate come allora[18]. Ma, proprio come dopo la bolla internet emersero colossi solidi (Google, Amazon e altri), anche dall’AI alla lunga usciranno vincitrici le aziende con fondamenta robuste e strategia.

AI

OpenAI più AMD: on basta avere gli algoritmi più eleganti: bisogna controllare la potenza delle macchine

E quali sono queste fondamenta robuste nell’era dell’AI? In sintesi, almeno tre. Diversificazione del rischio – Affidarsi a un solo fornitore (ad esempio solo Nvidia per i chip, o un solo partner esterno per i servizi AI) espone a troppi rischi. Chi sviluppa chip proprietari (Meta, Microsoft, Amazon, OpenAI) o diversifica la supply chain sta giocando d’anticipo con prudenza. Indipendenza computazionale – Bisogna sapere quando investire in potenza di calcolo propria, dove procurarsela al miglior costo (in casa o nel cloud? GPU o chip specializzati?) e come ottimizzarne l’utilizzo nei propri prodotti e servizi. Significa anche valutare attentamente fino a che punto esporsi finanziariamente nella spesa per hardware. Visione di lungo termine – Gli investimenti in infrastruttura AI di oggi sono le fondamenta delle innovazioni di domani. Occorre costruire un ecosistema sostenibile, con solide partnership finanziarie.

In altre parole, l’intelligenza artificiale del futuro è scritta nel silicio. Non basta avere gli algoritmi più eleganti: bisogna controllare la potenza delle macchine che li fanno vivere, e farlo con un approccio sostenibile e lungimirante. Questa rivoluzione vede software e hardware danzare insieme. E noi, come utenti e come innovatori, non possiamo che beneficiarne – contando sia sull’incredibile genialità del software, sia sul ronzio instancabile delle macchine che lo rendono possibile.