Lavoro e AI, il licenziamento non vale se l’algo è scorretto

scritto da il 10 Settembre 2025

Post di Rita Santaniello, avvocato co-responsabile del dipartimento di diritto del lavoro e della practice di sostenibilità dello studio Rödl & Partner – 

Fino a poco tempo fa una delle preoccupazioni maggiori degli italiani è stata quella dell’“AI Anxiety”, ovvero la paura di essere sostituiti nelle mansioni dall’Intelligenza Artificiale, oggi il nuovo incubo degli impiegati, soprattutto delle grosse multinazionali, è quello di essere licenziato perché un algoritmo AI ha deciso che il suo rendimento non è più adeguato agli “standard” produttivi. E gli esempi a quanto pare non mancano: dalle decine di migliaia di persone licenziate delle Big Tech californiane, fino alla multinazionale petrolifera BP, che sembrerebbe in procinto di tagliare oltre 7.000 dipendenti e appaltatori utilizzando proprio l’AI.

Senza prove dell’operato dell’algoritmo licenziamento illegittimo

In Italia, dove già i software per il controllo del personale non sono compatibili con la legislazione del lavoro, in caso di utilizzo di un algoritmo gestito dall’intelligenza artificiale che decida le sorti di un lavoratore si aprirebbe la strada, in caso di controversie, a problemi processuali in relazione all’onere della prova.

Licenziamento

In Europa il datore di lavoro che intende utilizzare sistemi AI ad alto rischio dovrebbe far riferimento all’articolo 26 dell’AI Act (designed by Freepik)

Quando un datore di lavoro si avvale di un algoritmo per prendere decisioni si pensi al caso del licenziamento per scarso rendimento, il lavoratore potrebbe avere difficoltà a contestare tale decisione in quanto non ha accesso al cosiddetto ‘codice sorgente’, ovvero l’insieme delle istruzioni scritte in un linguaggio di programmazione che definisce il funzionamento dell’algoritmo stesso. In queste situazioni l’onere della prova si sposta così sul datore di lavoro che deve dimostrare che l’algoritmo ha operato correttamente. Se il datore di lavoro non dovesse riuscire a fornire prove adeguate riguardo il corretto utilizzo dell’algoritmo, il giudice potrebbe dichiarare illegittimo il provvedimento.

Le decisioni prese dall’AI sono responsabilità del datore di lavoro

In questo panorama si inserisce l’AI Act, il regolamento dell’Unione Europea che stabilisce regole per lo sviluppo, l’uso e la commercializzazione di sistemi di AI nell’UE, e che prevede  requisiti e obblighi specifici per i sistemi di intelligenza artificiale considerati ad alto rischio – come appunto quelli che servono a selezionare e scremare i curriculum, così come quelli per valutare i dipendenti, decidere promozioni e licenziamenti – con l’obiettivo di garantire che l’uso dell’IA sia sicuro, etico e rispettoso dei diritti.

Il datore di lavoro che intendesse utilizzare in modo corretto sistemi AI ad alto rischio, come quelli descritti sopra dovrebbe far riferimento innanzitutto all’articolo 26 dell’AI Act, in particolare al comma 7, che stabilisce che prima di mettere in servizio o utilizzare un sistema di IA ad alto rischio sul luogo di lavoro, i datori di lavoro informano i rappresentanti dei lavoratori e i lavoratori interessati che saranno soggetti all’uso del sistema di IA ad alto rischio e all’articolo 14 (in combinato con l’art. 26, paragrafo 2) che prevede la sorveglianza umana adeguata per ridurre al minimo i rischi per la salute, la sicurezza o i diritti fondamentali poiché le decisioni adottate col supporto di sistemi AI sono sempre responsabilità del datore di lavoro.