La presente analisi si inserisce nei lavori della Scuola di alta formazione di ADAPT per la elaborazione del Rapporto sulla contrattazione collettiva in Italia. Per informazioni sul rapporto – e anche per l’invio di casistiche e accordi da commentare – potete contattare il coordinatore scientifico del rapporto al seguente indirizzo: tiraboschi@unimore.it |
Bollettino ADAPT 26 maggio 2025, n. 20
Parti firmatarie, oggetto e tipologia di accordo
Il 19 marzo 2025, la società CNP Vita Assicura e le Rappresentanze Sindacali Aziendali FISAC-CGIL, SNFIA e UILCA-UIL hanno concluso un accordo sindacale che configura un primo intervento di principio circa l’utilizzo dell’Intelligenza Artificiale in ambito assicurativo.
L’intesa si sostanzia in una dichiarazione d’intenti che trova la sua ragion d’essere nella crescente implementazione delle tecnologie algoritmiche nei processi industriali, la quale genera conseguenze rilevanti sul rapporto di lavoro e sulle condizioni dello stesso.
Contesto
Il Contratto Collettivo Nazionale di lavoro del settore assicurativo a cui attualmente si fa riferimento è quello rinnovato il 16 novembre 2022 a seguito dell’ipotesi di intesa convenuta tra ANIA (Associazione Nazionale fra le imprese assicuratrici) e FIRST-CISL, FISAC-CGIL, FNA, SNFIA, UILCA.
Infatti, sebbene formalmente scaduto il 31 dicembre 2024, in forza della clausola di ultrattività il CCNL continuerà ad essere applicato nelle sue disposizioni sino alla sottoscrizione di un nuovo accordo.
La contrattazione collettiva del settore assicurativo, sebbene non avesse ancora considerato specificamente gli aspetti più complessi legati all’IA, aveva già affrontato la questione tecnologica declinandola in termini di digitalizzazione e automazione.
Dall’analisi del CCNL ANIA, infatti, si rilevano due principali interventi sul punto.
In primo luogo, l’istituzione dell’Osservatorio nazionale sulla digitalizzazione e innovazione tecnologica, organismo di monitoraggio ed analisi dei cambiamenti determinati dalle nuove tecnologie.
In seconda battuta l’attenzione per la formazione continua, ivi delineata, da un lato, come diritto soggettivo dei lavoratori e, dall’altro, come mezzo essenziale di valorizzazione e qualificazione delle risorse umane, assumendo un ruolo decisivo anche nell’ottica del raggiungimento di nuovi obiettivi.
Temi trattati
L’attenzione che i firmatari del contratto aziendale che qui commentiamo hanno accordato al tema dell’Intelligenza artificiale è indice della crescente consapevolezza che le Parti sindacali stanno gradualmente maturando sul tema.
La centralità che oggi ha acquisito la tematica dell’Intelligenza artificiale e delle sue implicazioni sulla persona in quanto tale e in quanto lavoratore appare chiara alle Parti, che sin dalle premesse sottolineano la portata dirompente della trasformazione digitale in atto.
I firmatari, partendo dalle disposizioni del Contratto Integrativo Aziendale in tema di formazione del personale e tenendo conto di quanto affrontato nel CCNL in materia di sviluppo tecnologico di cui si è accennato poc’anzi, enucleano una serie di caratteristiche che l’IA deve presentare, concludendo poi l’intesa individuando una serie di utilizzi non consentiti.
I primi elementi su cui le Parti firmatarie si concentrano, qui trattati congiuntamente per facilitarne l’analisi, sono l’eticità e la sicurezza dell’Intelligenza artificiale.
Uno dei più rilevanti documenti in materia di IA al livello europeo è il documento “Orientamenti Etici per un’IA affidabile” (2019) redatto da un gruppo di esperti al fine creare un substrato di principi sul quale la regolamentazione dell’Intelligenza artificiale si sarebbe potuta poggiare.
Sebbene la prima disposizione dell’Accordo di cui si tratta possa apparire tanto ampia da risultare evanescente, la presenza di un fondamento normativo articolato in materia (il Regolamento UE 2024/1689, c.d. AI Act) consente di riempirla di significato. Affermare che l’Intelligenza artificiale debba essere etica, infatti, significa assicurarsi la presenza di alcuni caratteri essenziali come, tra gli altri, l’antropocentrismo, inteso come approccio che pone l’IA come servente rispetto all’attività dell’uomo nel rispetto della sua autonomia e del suo status, come la trasparenza, necessaria e funzionale alla comprensibilità da parte dell’uomo dei processi e dei risultati ottenuti dalla produzione algoritmica, o ancora come la non discriminazione, di essenziale rilevanza se consideriamo che l’IA è, ad oggi, uno strumento insidioso e potenzialmente amplificatore di disparità.
Per quanto concerne la sicurezza, è l’Accordo stesso a rimandare direttamente agli standard di qualità individuati dal citato Regolamento. L’atto europeo è infatti chiaro nell’affermare che lo sviluppo, l’utilizzo e la diffusione sul mercato dei sistemi di IA debba avvenire nel rispetto dei valori centrali dell’Unione, garantendo la sicurezza e il rispetto dei diritti fondamentali. Peraltro, è la struttura stessa del Regolamento a porla al centro di un apparato classificatorio fondato su diversi livelli di rischio, che danno origine a specifici obblighi in base alla posizione occupata nella gerarchia.
Sotto questo punto di vista, quindi, l’Accordo non sembra dire nulla di particolarmente innovativo rispetto a quanto già previsto dall’IA Act, malgrado ciò sia possibile e auspicabile se consideriamo che, all’art. 2 par. 11 dell’IA Act stesso, si sottolinea che la presenza del Regolamento non osta all’eventuale introduzione di disposizioni, anche di matrice collettiva, più favorevoli ai lavoratori.
Direttamente legato agli standard di qualità enunciati dal Regolamento è il terzo punto dell’Accordo, nel quale si sottolinea che i risultati e le elaborazioni prodotti dall’IA devono poter essere soggetti a verifiche e correzioni da parte di lavoratori e lavoratrici.
Tale previsione è una precisa declinazione della principale tutela prevista a fronte dell’algorithmic management, la sorveglianza e il monitoraggio umano, che impone ai produttori dei sistemi di progettarli e svilupparli in modo da poter essere supervisionati durante l’uso.
Se da un lato, infatti, si sottolinea come l’utilizzo delle nuove tecnologie sia finalizzato a migliorare l’efficienza, aumentando la qualità dei servizi e, nello specifico, la competitività nel settore assicurativo, dall’altro è necessario ricordare che i risultati dei sistemi algoritmici non sono esenti da errori, in quanto frutto dell’elaborazione di massive quantità di dati che potrebbero essere non aggiornati, non correttamente processati o influenzati da bias tipicamente umani.
Si torna così ad uno dei principi chiave individuati negli Orientamenti etici, l’autodeterminazione, che si sostanzia nella possibilità che gli esseri umani mantengano ampie opportunità di scelta dinanzi alle determinazioni algoritmiche. Nel documento citato poc’anzi si evince chiaramente come tale prospettazione si possa realizzare, appunto, tramite la sorveglianza, che si può declinare in una serie di interventi di diversa intensità che nell’atto vengono distinti in tre diversi approcci: human-in-the-loop, human-on-the-loop e human-in-command.
È proprio quest’ultimo approccio ad essere raccomandato dal CESE al punto 1.6. del suo Parere sull’Intelligenza artificiale del 2017, sede in cui viene peraltro ribadito che è condizione essenziale per un impiego sicuro, responsabile e utile dell’IA che l’uomo ne mantenga il controllo in ogni momento.
Peraltro, come evidenziato successivamente, non sempre le circostanze o le aspettative che devono essere considerate per assumere una decisione sono traducibili in precise regole informatiche; l’Accordo parla infatti di variabili “inaccessibili” alla macchina che, in quanto tali, devono essere ponderate e valutate dall’uomo.
Le Parti si occupano poi di disciplinare la formazione, rimarcando l’importanza dell’acquisizione di competenze per i lavoratori e le lavoratrici impattati dalle nuove tecnologie. La buona collaborazione e integrazione tra il lavoro dell’uomo e quello dell’IA si può realizzare solo attraverso percorsi di aggiornamento personalizzati, che consentano agli occupati di gestire e affrontare responsabilmente i cambiamenti tecnologici. La formazione non è quindi una misura generica, ma è il mezzo attraverso il quale le innovazioni possono radicarsi e germogliare in modo costante.
La riqualificazione professionale, così come il possibile ricollocamento in altra mansione, appaiono quindi come le tappe essenziali di un percorso di progressiva evoluzione che consenta ai lavoratori di godere di una certa continuità occupazionale, evitando l’obsolescenza professionale attraverso il rafforzamento delle competenze e a politiche di inclusione lavorativa.
Dopo tali disposizioni, le Parti si soffermano su alcuni utilizzi non consentiti dell’Intelligenza Artificiale, indicando espressamente le condotte vietate.
Innanzitutto, l’Accordo non consente di impiegare l’Intelligenza artificiale per controllare o monitorare il personale dipendente.
La disposizione cardine in materia è individuata nell’articolo 4 della Legge 300/1970, la quale, proprio per la complessità del tema in questione, ha subito un’importante modifica nel 2015, anno in cui la materia del controllo a distanza sui lavoratori è stata aggiornata alla luce dei cambiamenti che le nuove tecnologie hanno determinato. Se da un lato l’art. 4 non fa, come è ovvio, alcun riferimento ai sistemi algoritmici più avanzati di intelligenza artificiale, rendendosi quindi necessari interventi integrativi ed interpretativi che consentano di delineare in modo marcato il campo del permesso, dall’altro ha il merito di dare assoluta importanza al ruolo delle rappresentanze sindacali, il cui assenso è necessario affinché il datore possa disporre controlli sui lavoratori.
In secondo luogo, l’intesa sottolinea che non è consentito l’uso illegittimo dei dati personali di lavoratori e lavoratrici.
Il funzionamento dei sistemi algoritmici è possibile grazie all’acquisizione di una grossa mole di informazioni e di dati che vengono costantemente elaborati dalla macchina. Sul punto è essenziale considerare la disciplina prevista dal GDPR, che stabilisce un articolato quadro giuridico che tutela i dati personali dei cittadini dell’Unione europea. Dall’analisi dell’accordo si osserva la scelta delle Parti di utilizzare il termine “illegittimità” genericamente e senza specificazioni di sorta; ciò conduce necessariamente all’analisi dell’art. 5 del GDPR, all’interno del quale vengono enucleati i principi generali che devono essere applicati nel contesto del trattamento dei dati, tra i quali spiccano quelli di finalità, esattezza, minimizzazione, liceità, correttezza e trasparenza.
L’Accordo si conclude specificando che non sono consentiti impieghi dell’Intelligenza artificiale in processi industriali aziendali che determinano la perdita del posto di lavoro del personale assunto a tempo indeterminato.
Tale clausola rende evidente l’intenzione delle Parti di arginare le possibili ricadute occupazionali derivanti dall’utilizzo delle più avanzate tecnologie algoritmiche, ponendo un vincolo netto ad eventuali sacrifici in termini di posti di lavoro che può trovare fondamento ultimo anche nella Costituzione, nella misura in cui l’art. 41 puntualizza che l’iniziativa economica privata è subordinata al rispetto della dignità umana.
Dal punto di vista interpretativo la disposizione lascia alcuni margini di ambiguità, nella misura in cui non è chiaro se le ricadute occupazionali di cui si parla debbano essere la diretta conseguenza dell’uso dell’IA o se sia sufficiente un nesso anche solo concorrente, come anche la destinazione ai soli lavoratori a tempo indeterminato della tutela accordata.
Valutazione d’insieme
L’accordo sindacale in questione è un passo decisivo verso la regolamentazione dell’uso dell’IA all’interno dei singoli settori lavorativi ad opera delle parti sociali, le quali, come ribadito più volte anche dalle istituzioni europee, assumeranno un ruolo tanto innovativo quanto essenziale nel delineare i confini del consentito.
Sebbene alcuni atti legislativi interni, come il d. lgs. 27 giugno 2022 n. 104, siano caratterizzati da un approccio molto cauto nella previsione di eventuali interventi delle rappresentanze sindacali nella gestione algoritmica del lavoro, limitandosi spesso a prevedere la mera informazione delle stesse senza arrivare alla consultazione, i sindacati appaiono consapevoli dell’importanza del loro intervento.
Pertanto, l’intesa, nonostante non introduca misure innovative dirette, è un primo posizionamento collettivo in materia che dimostra la consapevolezza e l’interesse degli attori sindacali a predisporre un sistema articolato di tutele che, fondato su quanto disciplinato dal Regolamento europeo chiave sul punto, rimarca alcuni aspetti essenziali alla tutela della persona in quanto lavoratore.
Alessia Lepore
ADAPT Junior Fellow