Oltre l’AI Act: il vero rischio è culturale, non tecnico

scritto da il 26 Settembre 2025

Post di Lorenzo Beliusse, Marketing Director di Reti SpA

Ad agosto sono entrate in vigore le regole per l’intelligenza artificiale generativa incluse nell’AI Act, il primo regolamento al mondo pensato per inquadrare le potenzialità e i rischi dell’AI. Con questo apparato normativo imponente, oggi l’Europa cerca di gestire in anticipo l’impatto dell’intelligenza artificiale. La grossa differenza rispetto a tutti i cambiamenti del passato è che l’AI non evolve alla velocità dell’uomo, ma a quella della luce e mentre i legislatori cercano di “costruire argini”, i modelli linguistici generativi e i sistemi autonomi imparano, si moltiplicano e si perfezionano a ritmi esponenziali.

Secondo gli studi di OpenAI nel periodo 2020–2024, le capacità medie dei modelli di eseguire compiti sono raddoppiate ogni 6–10 mesi, superando abbondantemente la vecchia legge di Moore, secondo cui il numero di transistor su un chip, raddoppiando circa ogni 18 mesi, raddoppiava anche la potenza di calcolo, mantenendo costante il costo.

Se la tecnologia corre più dell’AI Act

È in questo contesto, dove la velocità dello sviluppo tecnologico supera la nostra capacità di regolamentarla, che si apre un divario sempre più evidente tra AI Act e AI Alignment, ovvero l’allineamento tra ciò che vuole l’uomo e ciò che “fa” l’AI. Da un lato, l’AI Act rappresenta lo sforzo delle istituzioni europee di costruire un quadro normativo solido, dall’altro, l’AI Alignment che, in una corsa contro il tempo, tenta di far sì che sistemi sempre più autonomi e complessi mantengano comportamenti allineati agli “obiettivi umani”.

L’AI Act è stato pensato per essere prevedibile e legalmente interpretabile, ma l’AI è per sua natura non lineare, adattiva e contestuale. Se un modello linguistico apprende dinamicamente dai dati locali, si adatta al tono e alle abitudini dell’utente, e ha accesso a dati sensibili, allora siamo di fronte a comportamenti che non sono programmati ma “emergenti” e quindi potenzialmente pericolosi anche senza essere stati progettati per nuocere.

Un paradosso normativo e culturale

Ad esempio, in numerosi test, è stato possibile rilevare come i modelli basati sull’AI hanno imparato a mentire, ingannare o ricattare, pur non essendo stati addestrati con obiettivi espliciti per farlo. Ed è proprio qui che si crea un paradosso normativo e se vogliamo anche culturale: mentre l’AI Act cerca di ingabbiare un fenomeno secondo le logiche del diritto (con livelli di rischio, autorizzazioni e sanzioni), l’AI Alignment si muove su un piano ingegneristico e, oserei dire, persino filosofico. Un regolamento può vietare l’uso di un sistema per la sorveglianza di massa, ma non può impedirgli di sviluppare spontaneamente strategie di persuasione sociale se queste derivano da un’ottimizzazione interna dei suoi obiettivi.

AI Act

Mentre i legislatori cercano di “costruire argini”, i modelli linguistici generativi e i sistemi autonomi imparano, si moltiplicano e si perfezionano a ritmi esponenziali (designed by Freepik)

L’intelligenza artificiale non è più soltanto uno strumento nelle mani dell’uomo, ma sta diventando un interlocutore autonomo, capace di negoziare, proporre, persino manipolare, il tutto non per qualche forma di malizia, ma semplicemente per ottimizzazione. Oggi usiamo l’AI per scrivere pezzi di software, rispondere alle email, pianificare agende. Ma cosa succederà quando inizierà a prendere decisioni su risorse aziendali senza più un vero controllo umano? Siamo ancora nell’ambito dell’“alto rischio” (secondo l’AI Act) oppure siamo davanti a una nuova ontologia del potere decisionale?

Il principio del minimo sforzo: che rischio corriamo?

L’essere umano per sua natura è “pigro”: questo non per colpa, ma per evoluzione. La nostra tendenza a evitare sforzi inutili è un adattamento radicato. In psicologia e neuroscienze, questo viene spesso definito come principio del minimo sforzo, secondo cui il cervello privilegia soluzioni che richiedano meno energia cognitiva e fisica. Il rischio più grande è che nel tempo “delegare alle macchine” possa diventare sempre più comodo e conveniente. Nel tempo, il vero pericolo è smettere di comprendere i processi decisionali delle macchine, mentre le lasciamo agire nel nostro nome.

Oltre agli obblighi tecnici (valutazioni d’impatto, tracciabilità, auditing) allora si potrebbero introdurre nuovi strumenti culturali per l’educazione alla comprensione del comportamento algoritmico. Il futuro che abbiamo davanti, infatti, è fatto di sistemi informatici integrati che combinano voce, testo, visione, geolocalizzazione e identità oltre a micro-agent distribuiti nel cloud che collaboreranno sempre di più tra loro senza supervisione centralizzata. È quindi necessario effettuare un cambio di paradigma per progettare sistemi che siano nativamente comprensibili, verificabili e allineati agli scopi umani, anche nei contesti imprevisti.