Digitale e AI: normative, regole, linee guida. Facciamo chiarezza?

scritto da il 26 Giugno 2025

Post di Simone Chizzali, CEO di Adasta

L’intelligenza artificiale è già una realtà concreta nei processi industriali, nei servizi finanziari e nella vita quotidiana delle persone. Dalle chatbot nei siti aziendali alla generazione automatica di contenuti, fino all’analisi predittiva nel settore assicurativo, l’AI rappresenta oggi uno strumento centrale per l’innovazione. Tuttavia, proprio l’ampiezza del suo impatto, unita alla velocità di diffusione, ha sollevato questioni etiche, sociali e legali che rendono urgente l’introduzione di normative specifiche.

I dati parlano chiaro: la crescita esplosiva e trasversale dell’AI riguarda tanto le grandi aziende quanto – con maggior cautela – le PMI. Se da un lato il 53% delle grandi imprese italiane ha già acquistato le licenze di strumenti di Generative AI come ChatGPT o Microsoft Copilot e il 39% che utilizza già questi strumenti ha riscontrato un effettivo aumento della produttività, nel mondo delle piccole e medie imprese la penetrazione resta ancora limitata. Solo il 7% delle piccole e il 15% delle medie imprese ha avviato progetti in ambito AI, spesso sperimentali e con risorse contenute. Tuttavia, l’interesse è in crescita: il 58% delle PMI italiane dichiara di voler esplorare l’uso dell’AI nei prossimi anni, stimolate dall’attenzione mediatica e dalla disponibilità di strumenti low-cost.

Regole Ue e i rischi di un utilizzo non governato

È proprio questa diffusione capillare, unita alla capacità dell’AI di influenzare decisioni personali, lavorative, sanitarie e sociali, ad aver spinto l’Unione Europea a definire un quadro normativo chiaro e vincolante. Una necessità nata dal bisogno di tutelare i diritti fondamentali delle persone, garantire trasparenza nell’uso degli algoritmi e prevenire pratiche rischiose, come la sorveglianza di massa, la manipolazione cognitiva o la discriminazione nei processi decisionali automatizzati.

Anche le aziende stesse si mostrano sempre più consapevoli dei rischi di un utilizzo non governato: in più di 4 imprese su 10 ci sono linee guida e regole per l’utilizzo e nel 17% dei casi è stato vietato l’uso di tool non approvati, per evitare logiche di Shadow AI. In questo contesto si inserisce l’AI Act, la prima normativa europea sull’intelligenza artificiale, approvata dal Parlamento Europeo a marzo 2024 e destinata a entrare pienamente in vigore entro il 2026.

Gli obiettivi dell’AI Act

Il regolamento si propone di classificare i sistemi di AI in base al loro livello di rischio, stabilendo per ciascuno requisiti e obblighi differenti. I sistemi a rischio inaccettabile, come quelli che consentono la manipolazione psicologica o la valutazione sociale (social scoring) da parte delle autorità pubbliche, saranno vietati su tutto il territorio europeo. I sistemi a rischio elevato, invece, come quelli utilizzati per selezionare candidati per un lavoro, assegnare crediti bancari o valutare l’accesso a benefici pubblici, potranno essere impiegati solo se rispetteranno stringenti requisiti di trasparenza, tracciabilità e supervisione umana. I sistemi a rischio limitato, come chatbot o generatori di contenuti, dovranno semplicemente informare l’utente che sta interagendo con un’intelligenza artificiale. Infine, i sistemi a rischio minimo, come i filtri antispam o le funzionalità AI nei videogiochi, non saranno soggetti ad alcun obbligo specifico.

AI

I nuovi obblighi per le imprese e il GDPR

Ma l’AI Act non si limita alla sola classificazione dei livelli di rischio, esso impone anche nuovi obblighi alle imprese, soprattutto a quelle che sviluppano o impiegano sistemi ad alto rischio. Queste dovranno garantire adeguati sistemi di gestione della qualità, audit periodici, procedure di segnalazione degli incidenti, oltre a una formazione specifica per il personale coinvolto. Inoltre, tutte le aziende – indipendentemente dal tipo di sistema impiegato – dovranno assicurare la conformità dei propri strumenti al Regolamento Generale per la Protezione dei Dati (GDPR). I dati personali trattati dai sistemi di AI dovranno essere raccolti, conservati e utilizzati in modo trasparente e conforme alla normativa europea sulla privacy.

A livello europeo, un altro aggiornamento importante riguarda il rinvio del Codice di Buone Pratiche per i modelli di Intelligenza Artificiale Generale (GPAI), inizialmente previsto per maggio e ora spostato al 2 agosto 2025. Il documento, pensato come guida volontaria per l’uso responsabile dei modelli fondativi, ha incontrato la resistenza di colossi statunitensi come Meta e Google, preoccupati che possa ostacolare l’innovazione e compromettere la competitività. Il rinvio riflette il delicato equilibrio tra regolamentazione e leadership tecnologica nel contesto geopolitico globale.

E in Italia?

A livello nazionale, l’Italia ha già cominciato a muoversi per recepire e attuare le disposizioni dell’AI Act. Dal 2 febbraio 2025 sono stati vietati i primi sistemi classificati come inaccettabili. L’Agenzia per l’Italia Digitale (AgID) sta lavorando all’elaborazione di linee guida operative, mentre il Comitato Interministeriale per la Transizione Digitale coordina il quadro strategico. Sono inoltre previste tre autorità nazionali competenti: una per la sorveglianza del mercato, una notificante per la conformità dei sistemi e una garante dei diritti fondamentali legati all’uso dell’IA. L’Italia ha tempo fino al 2 agosto 2025 per completare queste designazioni.

Sul fronte legislativo, a marzo 2025 è stato approvato in Senato il Disegno di legge n. 1146, che stabilisce norme nazionali per l’integrazione dell’AI Act. Tra le novità introdotte, l’obbligo per i professionisti di dichiarare l’uso dell’AI nei servizi offerti, l’invito a utilizzare data center situati in Italia per garantire la sovranità dei dati e una regolamentazione più stringente per l’uso dell’AI in ambito sanitario. I pazienti dovranno essere sempre informati quando viene utilizzata AI nei percorsi di diagnosi o trattamento. E dopo il via libera alla Camera del 25 giugno ora restala terza e ultima lettura a Palazzo Madama.

Si apre un biennio decisivo

Non mancano poi proposte di nuove regolamentazioni: a livello internazionale si discute, ad esempio, di un’estensione delle norme per includere esplicitamente la cosiddetta Intelligenza Artificiale Generale (AGI), una tecnologia ancora in fase sperimentale ma potenzialmente capace di apprendere, ragionare e risolvere problemi in modo comparabile a un essere umano. Altri ambiti in via di definizione riguardano l’uso dell’AI generativa nei settori dell’istruzione, della sanità e della pubblica amministrazione.

Il biennio 2025–2026 sarà dunque decisivo. Le imprese dovranno farsi trovare pronte, con modelli di governance dell’AI strutturati, sistemi di monitoraggio dei rischi e investimenti in formazione e compliance. Non sarà solo una questione burocratica, ma una nuova fase strategica per l’ecosistema produttivo europeo, in cui l’etica e la trasparenza saranno elementi centrali per lo sviluppo sostenibile della tecnologia. L’intelligenza artificiale, insomma, non è più un futuro ipotetico ma una realtà presente, che richiede regole ben definite. Solo così sarà possibile garantire innovazione e sicurezza, crescita e fiducia, in modo efficace ed equilibrato.