categoria: Res Publica
Intelligenza artificiale e lavoro: giuste regole o freni all’innovazione?


Post di Martina De Angeli e Alesia Hima, rispettivamente Senior Associate e Junior Associate dello Studio legale giuslavoristico De Luca & Partners –
L’Intelligenza Artificiale (IA) è ormai una componente concreta nei processi aziendali, trovando applicazione crescente soprattutto nella gestione delle risorse umane. Gli algoritmi promettono efficienza e imparzialità in attività complesse come il recruiting, la valutazione delle performance o l’assegnazione di incarichi. Tuttavia, questa promessa si accompagna a rischi rilevanti. Proprio per la loro potenziale incidenza sui diritti fondamentali, i sistemi di IA impiegati nel contesto lavorativo sono oggi considerati “tecnologie ad alto rischio”, soggette a obblighi stringenti di trasparenza, supervisione umana e valutazione dell’impatto sui lavoratori.
In questo scenario si inseriscono le “Linee Guida per l’utilizzo di sistemi di Intelligenza Artificiale nel contesto lavorativo” pubblicate recentemente dal Ministero del Lavoro: non una norma vincolante, ma un documento strategico che rappresenta un chiaro indirizzo politico e culturale per il tessuto produttivo italiano, con un’attenzione particolare alle PMI. L’obiettivo è duplice: promuovere un’adozione consapevole dell’IA e assicurare la piena tutela dei diritti dei lavoratori.
Il documento si basa su un messaggio inequivocabile: l’IA non può essere una “scatola nera” che decide in modo opaco e incontestabile. Anche quando la tecnologia è sviluppata da terzi, la responsabilità ultima resta sempre in capo al datore di lavoro. Per le imprese, si tratta di passare da una fase sperimentale a una gestione strutturata, in linea con principi di compliance e sostenibilità.
I quattro pilastri delle linee guida all’utilizzo dell’IA
Il documento ministeriale si articola attorno a quattro direttrici fondamentali, che formalizzano obblighi già rinvenibili nell’attuale quadro normativo e giurisprudenziale, rafforzandone l’applicazione in chiave preventiva.
1. Supervisione umana obbligatoria
Le decisioni che influiscono sulla posizione giuridica del lavoratore – assunzioni, promozioni, valutazioni, provvedimenti disciplinari o licenziamenti – non possono essere lasciate alla sola valutazione algoritmica. È necessario un controllo umano effettivo, consapevole e tracciabile da parte di una figura competente e legittimata. Questa figura deve essere in grado di comprendere, validare o anche disattendere le indicazioni della macchina, assumendosi piena responsabilità della decisione finale.
2. Obbligo di trasparenza algoritmica
Le aziende devono informare in modo chiaro e accessibile i lavoratori sull’impiego dell’IA nei processi che li riguardano. Non è sufficiente una comunicazione generica: occorre spiegare quali dati sono trattati (CV, performance, test attitudinali), quali logiche e criteri l’algoritmo utilizza e quale impatto abbia sulla decisione finale. Il principio guida è la “intelligibilità”: il sistema dev’essere spiegabile, comprensibile e contestabile.
3. Valutazione d’impatto e mitigazione del rischio
Coerentemente con l’AI Act europeo, l’utilizzo dell’IA in ambito HR è qualificato come attività ad alto rischio. Ne deriva un obbligo per il datore di lavoro di effettuare, prima della messa in esercizio, una valutazione d’impatto che tenga conto dei possibili effetti discriminatori, della tutela della privacy e della qualità dei dati utilizzati. Le Linee Guida sollecitano anche l’introduzione di audit periodici e controlli sistematici sul funzionamento degli algoritmi.
4. Mappatura e accountability
L’impresa deve sapere quali sistemi di IA sta utilizzando, dove, per quali finalità e chi ne è responsabile. La responsabilità non è delegabile al fornitore della tecnologia: è l’organizzazione a dover garantire un uso corretto ed etico dei sistemi, attraverso una governance interna adeguata. La mappatura dei sistemi e la definizione dei ruoli interni rappresentano un requisito essenziale per il rispetto del principio di accountability.

L’IA, se adottata con metodo e responsabilità, può dunque rappresentare un potente alleato nella gestione delle risorse umane. Ma non può sostituire il giudizio umano (designed by Freepik)
Adeguarsi conviene: le azioni concrete per le aziende
Per le imprese – in particolare per i datori di lavoro e i responsabili HR – queste Linee Guida rappresentano una call to action. Oltre al rispetto normativo, offrono un’opportunità concreta per valorizzare la componente umana, migliorare la qualità delle decisioni e rafforzare la fiducia interna. Di seguito, alcune azioni che possono essere messe in campo fin da subito:
- – Predisporre policy interne che regolino l’uso dell’IA e informino in modo chiaro i lavoratori e i loro rappresentanti sindacali.
- – Formare il personale, soprattutto i manager, affinché siano in grado di interpretare criticamente gli output algoritmici e non si limitino a ratificarli.
- – Mappare i processi decisionali in cui è coinvolta l’IA e identificare puntualmente i presidi di controllo umano.
- – Introdurre meccanismi di audit e valutazione del rischio per ciascun sistema, coinvolgendo anche figure come il DPO (Data Protection Officer).
- – Favorire la partecipazione dei lavoratori, prevedendo strumenti di verifica e confronto sul funzionamento e l’impatto degli algoritmi.
Freno all’innovazione o strumento operativo?
L’IA, se adottata con metodo e responsabilità, può dunque rappresentare un potente alleato nella gestione delle risorse umane. Ma non può – e non deve – sostituire il giudizio umano. Le Linee Guida del Ministero del Lavoro non sono un freno all’innovazione, bensì uno strumento operativo per orientarla in modo etico, sostenibile e conforme alle norme.
Un passo necessario per costruire ambienti di lavoro più trasparenti, equi e partecipativi, dove il progresso tecnologico vada di pari passo con la tutela dei diritti fondamentali: dignità, non discriminazione, diritto all’informazione e responsabilità delle decisioni.