I rischi dell’Intelligenza Artificiale sul lavoro: Le misure di Stati membri e U.E.
Introduzione
L’uso dell’intelligenza artificiale nel mondo del lavoro permetterà di ridurre fatica, sprechi e burocrazia, ma allo stesso tempo esporrà i lavoratori a nuove insidie. A preoccupare politici e analisti, sono la potenziale violazione della privacy, la mancanza di trasparenza e responsabilità e la spersonalizzazione del lavoro. Perciò, negli ultimi anni, Stati membri e U.E. hanno adottato delle misure contri i rischi dell’I.A.
I provvedimenti nazionali
Le misure contri i rischi dell’I.A. degli Stati MembriI variano di paese in paese, ma condividono la carenza di piani di azione concreti sulla salute e la sicurezza dei lavoratori.
Tendono a concentrarsi su valori e prospettive future, senza sufficienti riferimenti pratici alla vita lavorativa quotidiana. A dirlo è L’agenzia Europea sulla salute e la sicurezza sul lavoro che ha analizzato le misure previste da alcuni Stati (quali Germania, Francia, Svezia, Norvegia) nonché l’operato della Commissione Europea.
Un tema ricorrente nei diversi testi legislativi nazionali è la necessità di formazione professionale sugli strumenti di I.A della forza lavoro. In questo modo si potrebbe mitigare la paura di sostituzione con le macchine dei lavoratori e controllare il pericolo di disoccupazione. In merito alla protezione dei dati, invece, molte delle politiche esaminate si affidano a commissioni specializzate per gestire le relative implicazioni etiche. Inoltre, nell’elenco di interventi si prevede un continuo monitoraggio del suo impatto nel mondo del lavoro.
La Germania e La Francia.
Ad esempio, la Germania ha adottato nel 2018 la sua strategia sull’intelligenza artificiale, fondata sulla centralità delle esigenze umane. Nella politica tedesca, infatti, l’implementazione del sistema produttivo con tecnologie di ultima generazione avrebbe dovuto portare a una rinegoziazione della divisione del lavoro tra uomo e macchina. Questa doveva rimanere una risorsa al servizio dei bisogni umani, ma al contempo, l’uomo avrebbe dovuto impegnarsi in un processo di upskilling per essere in grado di gestire fruttuosamente l’uso dell’I. A. Un’impostazione simile è stata applicata anche in Francia.
Non a caso, Parigi ha lanciato la sua strategia sull’intelligenza artificiale nel 2018. Studiandone l’impatto economico, ha preso coscienza di non essere pronta alla transizione digitale. Ha calcolato che l’uso dell’I.A. avrebbe messo a rischio il 10 % dei lavori mentre il 50 % sarebbe stato automatizzato. Di pari passo, ha realizzato che il suo attuale sistema di formazione professionale non è in grado di affrontare questi contraccolpi occupazionali. Perciò ha stabilito sono necessari dei programmi di avviamento al lavoro che permettano di adattare le competenze della manodopera a quelle richieste per la gestione delle nuove tecnologie. In questo processo servirà una stretta collaborazione tra educazione, autorità locali e Stato per preparare le giovani generazioni al mondo del lavoro 2.0.
L’atto della Commissione
Nel 2021 la Commissione Europea ha pubblicato un Atto sull’Intelligenza Artificiale per armonizzare le relative norme nazionali e modificare gli atti legislativi dell’Unione. L’esito sperato era di garantire i diritti fondamentali dei lavoratori, assicurando la certezza del diritto e incoraggiando degli investimenti nell’innovazione. Tutto per una rinnovata fiducia dei cittadini nei confronti dell’azione della Comunità nel campo sociale.
Nello stesso testo, la Commissione ha fornito la definizione comunitaria di Intelligenza Artificiale e ha istituito un nuovo consiglio comunitario competente a facilitare l’attuazione dei regolamenti in materia.
La classificazione dei rischi
L’esecutivo europeo ha anche ideato una tabella di classificazione dei rischi dell’uso dell’I. A, articolata su quattro livelli. Se il rischio è minimo o assente non sono previste restrizioni. I fornitori sono solo invitati a rispettare gli esistenti codici di condotta. Lo stesso vale per i dispositivi a rischio limitato. Il discorso, invece, è diverso per i sistemi di intelligenza artificiale a rischio elevato. Questa categoria è sottoposta a due forme di valutazione, quelle di pre- o post- conformità a seconda della tipologia di tecnologia utilizzata. Sotto le prime rientrano i controlli su dispositivi medici e automobili, sotto le seconde quelli in uso presso le forze dell’ordine e nel mondo dell’istruzione. Inoltre, eccezionalmente, possono essere applicati dei sistemi di Intelligenza Artificiale generalmente proibiti, se vengono provati degli scopi legittimi. L’intera classificazione di rischi si fonda sul principio base per cui la ricerca scientifica non deve danneggiare le persone reali. Il progresso deve apportare benefici, non pericoli. Infine, si è deciso di assegnare alla stessa Commissione la gestione di una banca dati pubblica sui sistemi di I.A. ad alto rischio.
Le criticità
Ad ogni modo, secondo L’Agenzia Europea per la sicurezza e la salute sul lavoro, nell’atto ci sono alcune criticità. Ad esempio, non è stato specificato in senso pratico il funzionamento della Regolamentazione Generale della protezione dei dati. E, ancora, non sono stati precisati nel dettaglio i metodi per controllare e correggere eventuali violazioni dei diritti fondamentali causate dall’uso dell’I.A. In conclusione, sempre L’Agenzia Europea, segnala che Stati membri e U.E. hanno adottato delle misure contri i rischi dell’I.A. che sembrano finalizzate più a rassicurare sulla loro portata minima che ad analizzare le possibili trasformazioni e rischi nel mondo del lavoro.