Intelligenza artificiale: la posizione del sindacato europeo

il sindacato europeo sull intelligenza artificiale foto di Amanda Dalbjörn Unsplash

Il 21 aprile 2021 la Commissione dell’Unione europea ha presentato una proposta di Regolamento sull’intelligenza artificiale (AI) [1], finalizzato a definire regole condivise per gestire l’utilizzo di tali sistemi.

In merito la Confederazione europea dei sindacati ha espresso una valutazione critica ritenendo che:

Il punto di partenza è chiaramente la volontà di promuovere l’IA e questo colora tutto il Regolamento. La Commissione Europea sostiene di porre i diritti fondamentali al vertice del suo approccio, ma questa preoccupazione lascia sistematicamente il posto alle priorità basate sul mercato e allo sviluppo di un’industria che l’Unione Europea intende dominare e in cui i diritti dei cittadini e dei lavoratori sono secondari. L’intelligenza artificiale nel mondo del lavoro dovrebbe essere sottratta al campo di applicazione del presente regolamento e fatta oggetto di una direttiva ad hoc.

La proposta di Regolamento non disciplina l’intelligenza artificiale come tecnologia, ma analizza i sistemi di IA immessi sul mercato o messi in servizio, proponendo  un criterio di identificazione basato sul livello di  rischio: divieto di utilizzo  dell’IA per sistemi che creano rischi inaccettabili; mentre è consentito l’utilizzo di sistemi  che creano un rischio elevato laddove siano soddisfatti requisiti specifici;  sono infine consentiti usi con rischio minimo o basso, per lo più incondizionatamente.

Proposta di Regolamento della Commissione europea sull’IA
Scala dei rischi
Rischio inaccettabile

Gli usi dell’IA lesivi dei valori fondamentali sono considerati inaccettabilmente rischiosi e vietati. Si tratta di sistemi che implementano tecniche subliminali, sfruttano le vulnerabilità e distorcono il comportamento umano o vengono utilizzati per il punteggio sociale algoritmico [2].
L’utilizzo di sistemi di intelligenza artificiale per l’identificazione biometrica [3] a distanza ‘in tempo reale’ delle persone negli spazi pubblici è considerato particolarmente invadente e vietato tranne che in tre situazioni:  ricerca delle vittime di reato; minacce alla vita e terrorismo; identificare dove si trovano gli autori di un crimine.

Rischio alto

I sistemi di IA ad alto rischio sono al centro del Regolamento. Sono ammessi sul mercato ma devono rispettare alcuni requisiti obbligatori. Tali sistemi possono essere utilizzati ad esempio come software per il reclutamento di lavoratori, sistemi di valutazione del credito, ovvero più in generale sistemi che possono ledere un diritto individuale. È il caso dei sistemi di riconoscimento facciale, vietati in «linea di principio» ma attivabili per una ristrettissima minoranza di emergenze e solo con il via libera di un organo giudiziario.
Importante sottolineare che anche il campo dell’occupazione è considerato un uso ad alto rischio.

Rischio basso

Gli usi dell’IA a basso rischio non sono specificamente disciplinati dal Regolamento. I fornitori sono semplicemente incoraggiati a produrre codici comportamentali di condotta per favorire l’applicazione volontaria dei requisiti legali appropriati per i sistemi ad alto rischio.
Alcuni altri usi a basso rischio come i sistemi di intelligenza artificiale che interagiscono con gli esseri umani, rilevano emozioni o utilizzati per generare o manipolare audio, immagini o contenuti video (“deep fake“) devono soddisfare specifici obblighi di trasparenza: il loro fornitore dovrebbe informare gli utenti che interagiscono con un sistema di intelligenza artificiale o che il contenuto che stanno visualizzando è stato manipolato.

Rischio minimo

La proposta legislativa consente il libero utilizzo di applicazioni quali ad esempio videogiochi. La grande maggioranza dei sistemi di IA rientra in questa categoria. Il progetto di regolamento non interviene in questo caso, poiché si considera che questi sistemi di IA presentano solo un rischio minimo o nullo per i diritti o la sicurezza dei cittadini.

Dichiara il sindacato europeo:

[…] non si tratta di avere paura o non fidarsi di questa specifica tecnologia cosi come di qualsiasi altra tecnologia, ma di opporsi ad usi specifici che è stato dimostrato essere eccessivi, sproporzionati o contrari ai diritti fondamentali. Tali utilizzi, nello specifico contesto lavorativo, sono aggravati dal rapporto subordinato tra lavoratore e datore di lavoro.
L’approccio che sta alla base del Regolamento, basato sul consentire utilizzi ad alto rischio, purché il fornitore effettui un’autovalutazione e rispetti determinati requisiti, merita tutte le critiche che gli facciamo: la Commissione europea sta dando la priorità ai fornitori di tecnologia con l’obiettivo di conferire loro la fiducia necessaria per promuovere l’IA e incoraggiare le aziende a svilupparne l’utilizzo.
In definitiva, la Commissione europea sta cercando di posizionare l’UE come leader del sistema globale di IA . La nostra preoccupazione è che ciò possa avvenire a spese dei cittadini e, in particolare, dei lavoratori. Una direttiva ad hoc sull’IA nel mondo del lavoro è quindi assolutamente necessaria per riequilibrare la situazione.

Il principio di precauzione avrebbe dovuto essere al centro di un Regolamento il cui oggetto è una tecnologia incerta e rischiosa. La Commissione Europea ha invece scelto di utilizzare una versione ristretta dell’approccio basato sul rischio: aspetti quali l’impatto dell’IA sui diritti fondamentali, sui diritti dei lavoratori e sull’ambiente, nonché la necessità di anticipare come si evolverà in futuro, non sono sufficientemente affrontati.

Per quanto riguarda l’idea di una Direttiva sull’Intelligenza artificiale relativa al mondo del lavoro questa è già stata oggetto di manifestazioni di consenso: il Parlamento europeo, nella sua risoluzione su “Un’Europa sociale forte per transizioni giuste”, ha esortato la Commissione “a presentare una Direttiva su norme e condizioni minime … proteggere la salute e la sicurezza dei lavoratori e garantire… il rispetto dell’orario di lavoro, delle ferie, dell’equilibrio tra lavoro e vita privata e di altri diritti i sul lavoro digitale come il diritto alla disconnessione, la tutela della privacy dei lavoratori, anche attraverso il divieto di monitoraggio remoto e ogni altro tracciamento, il divieto di impianti di microchip sui lavoratori e dell’uso dell’intelligenza artificiale nei processi di reclutamento, tenendo conto dell’ Accordo quadro Europeo sulla digitalizzazione del lavoro” [4].

Direttiva sull’Intelligenza artificiale per il mondo del lavoro:
5 punti fondamentali secondo la Confederazione sindacale europea
1. Responsabilità dei datori di lavoro nella prevenzione dei rischi dell’IA.

In materia di salute e sicurezza sul lavoro, i datori di lavoro sono obbligati ad attuare la valutazioni dei rischi.
I rischi dell’IA vanno oltre la salute e la sicurezza sul lavoro in quanto includono i possibili abusi delle prerogative manageriali derivanti dalla natura del rapporto di lavoro, nonché altri rischi per la vita privata, i diritti fondamentali, la protezione dei dati e la salute generale.
Per questo è necessario un quadro specifico per valutare i rischi dell’IA nel contesto occupazionale, con il coinvolgimento attivo dei lavoratori e dei loro rappresentanti

2. Norme sulla privacy e sulla protezione dei dati.

L’intelligenza artificiale è “affamata” di dati e i lavoratori sono un’importante fonte di dati personali. In pratica è difficile per i lavoratori esercitare i propri diritti di fronte a un datore di lavoro: essere informati, ottenere l’accesso, chiedere una rettifica, cancellare, limitare il trattamento e richiedere la logica alla base del processo decisionale automatizzato e della profilazione.
La direttiva dovrebbe affrontare anche altre questioni come la “limitazione delle finalità” (i dati dovrebbero essere utilizzati solo per lo scopo per cui sono raccolti), la “profilazione” e il “consenso informato”.

3. Comprensibilità degli algoritmi sul posto di lavoro.

Rendere comprensibile per i lavoratori i principi applicati nell’utilizzo dell’IA: ciò significa fornire, in un linguaggio semplice, una spiegazione di come un algoritmo ha spinto o influenzato le cose in una certa direzione e non semplicemente una descrizione del suo funzionamento.
Si dovrebbe consentire ai lavoratori e ai loro rappresentanti di comprendere il ruolo e l’impatto dei sistemi di IA sul posto di lavoro, per evitare situazioni di un utilizzo passivo dell’IA. Le spiegazioni devono essere adattate al profilo utente.
I lavoratori dovrebbero avere un’agenzia sui sistemi di IA con cui interagire ed essere istruiti: chiedere spiegazioni, capire come i sistemi di IA elaborano gli input e forniscono risultati e poterli contestare. Questo è essenziale per qualsiasi sistema di intelligenza artificiale che interagisce con i lavoratori, in particolare quando produce dati i cui potenziali usi sono sconosciuti.

4. “L’uomo al comando’: il ruolo dei sindacati

Il principio dell’uomo al comando dovrebbe essere presente in tutte le interazioni uomo-macchina come una nuova componente dell’organizzazione del lavoro. Questo è inteso come dare l’ultima parola agli umani e spiegare quali fonti di dati sono responsabili delle decisioni finali in cui uomini e macchine agiscono come un insieme (Zanzotto 2019 [5]).
I sindacati dovrebbero essere parte di tutto questo e svolgere un ruolo attivo quando ritengono che sia necessario un operatore umano. Questo principio può aiutare ad anticipare, prevenire e gestire i rischi attuali ed emergenti dell’IA.

5. Sorveglianza algoritmica del lavoratore.

L’ analisi avanzata dei dati (biometria, apprendimento automatico, analisi semantica, analisi del sentimento, tecnologia di rilevamento delle emozioni, ecc.) può misurare la biologia, i comportamenti e le emozioni.
La sorveglianza algoritmica non scansiona passivamente ma incide nelle vite dei lavoratori, costruisce attivamente un’immagine e poi prende decisioni. La direttiva dovrebbe vietare la sorveglianza algoritmica dei lavoratori [6].

La tematica è davvero complessa, le critiche della Confederazione europea dei sindacati tutte condivisibili ma ulteriori domande e criticità emergono dall’esame complessivo delle modalità e dei tempi con cui la Commissione assume in merito la sua iniziativa in tema di intelligenza artificiale, considerando che:

  1. si tratta di una tecnologia ormai a un livello di sviluppo estremamente avanzato, di cui si ha un diffuso utilizzo sul mercato e negli ambienti di lavoro
  2. si evidenzia un’estrema difficoltà per i lavoratori e per chi li rappresenta nel recuperare gli spazi già occupati da tecnologia e mercato in termini di conoscenze e controllo
  3. si è trascurato il principio di precauzione che non solo oggi, ma nelle fasi precedenti, avrebbe dovuto guidare lo sviluppo delle tecnologie di IA ponendosi l’antica domanda “cui prodest?”. A chi dà vantaggio questo sviluppo pratico affrettato o addirittura convulso tanto da imporre una altrettanto frettolosa regolamentazione? Certo non ai lavoratori o ai cittadini che non sono attualmente in grado di comprenderne il significato nella sua complessità e quindi di reagire ponendo limiti e indirizzi.

Le osservazioni di cui al precedente punto 3 sono d’altronde pienamente in accordo con quanto espresso in merito dalla Confederazione europea dei sindacati:

Questa valutazione del Regolamento sull’IA si basa sui principi della ‘formazione sociale della tecnologia’ in cui la progettazione e l’implementazione tecnologica non sono modellate solo da considerazioni tecniche ristrette ma anche da una serie di fattori sociali, economici e politici intrecciati (Williams e Edge 1996). In tale processo dovrebbero intervenire molti attori, compresi i sindacati. Anche l’impegno pubblico e le competenze diversificate sono elementi cruciali che contribuiscono a un’autentica ‘forma sociale’ del cambiamento tecnologico. (Jasanoff 2003) [7].


NOTE

[1] The AI Regulation: entering an AI regulatory winter? Why an ad hoc directive on AI in employment is required. Il documento cui facciamo riferimento è stato redatto da Aída Ponce Del Castillois, ricercatrice senior dell’European Trade Union Institute (ETUI) in Bruxelles.

[2] Si fa riferimento al sistema cinese del credito sociale: uno strumento utilizzato in Cina per classificare la reputazione dei cittadini, a partire da una serie di informazioni raccolte e analizzate da sistemi tecnologici. Ad esempio in molti attraversamenti pedonali di Shanghai, il volto di chi cammina senza rispettare le strisce viene riconosciuto e proiettato su schermi giganti, in una sorta di pubblica gogna cui fa seguito la classica contravvenzione (Nella testa del Dragone. Identità e ambizioni della Nuova Cina, di Giada Messetti, Mondadori 2020).

[3] Un sistema di riconoscimento biometrico è un particolare tipo di sistema informatico che ha la funzionalità e lo scopo di identificare una persona sulla base di una o più caratteristiche fisiologiche e/o comportamentali (biometria), confrontandole con i dati, precedentemente acquisiti e presenti nel database del sistema, tramite degli algoritmi e di sensori di acquisizione dei dati in input.

[4] Businesseurope, le associazioni rappresentative delle piccole e medie imprese (SME United) e del settore pubblico (Ceep) assieme alla Confederazione europea dei sindacati dei lavoratori (ETUC) hanno condiviso e formalizzato nello scorso anno “un preciso impegno nei confronti d’un mercato più inclusivo ed orientato a governare il cambiamento apportato dalla tecnologia digitale all’organizzazione produttiva, alle relazioni di lavoro e conseguentemente nel mercato“ (Sull’Accordo Quadro europeo in tema di digitalizzazione del lavoro, Anna Rota, Università di Bologna, 2020).

[5] Zanzotto F.M. (2019) Human-in-the-loop artificial intelligence, Journal of Artificial Intelligence Research, 64, 243-252

[6] Ponce del Castillo 2021.

[7] Ponce del Castillo 2021

Lascia un commento