Intelligenza artificiale: la valutazione dei rischi al centro della nuova normativa europea

intelligenza-artificiale

Il Parlamento europeo ha approvato l’Artificial Intelligence Act nel giugno scorso, in seguito al confronto tra Parlamento, Consiglio dell’Unione europea e la Commissione. Mentre entrerà probabilmente in vigore tra il 2024 e il 2025. L’intelligenza artificiale è dunque ufficialmente entrata in Europa anche dal punto di vista della sua regolamentazione.

Il voto del Parlamento, che si è espresso positivamente sul testo proposto dalla Commissione con una forte maggioranza, avvia a conclusione una regolamentazione che è la prima a livello mondiale e che va seguita con la massima attenzione considerando le ricadute che la sua applicazione può avere in ambito lavorativo e nella vita extralavorativa.

La valutazione dei rischi connessi all’utilizzo dell’IA

La trasformazione digitale è una delle priorità dell’Unione europea. Per guidare la trasformazione digitale dell’Ue, la Commissione ha presentato il Programma politico del decennio digitale europeo, programma che contiene obiettivi per il 2030 “in settori quali le competenze, le infrastrutture digitali sicure e sostenibili, la trasformazione digitale delle imprese e la digitalizzazione dei servizi pubblici”. La regolamentazione dell’IA rientra in questo quadro e si ha consapevolezza, a livello comunitario, dei rischi che questa può comportare, al punto di prevedere la valutazione dei rischi quale elemento fondante della nuova legislazione, al pari della legislazione in materia di individuazione e gestione dei rischi connessi al lavoro.

Il testo approvato dal Parlamento UE, all’ art. 3, definisce il sistema di IA come “un sistema progettato per funzionare con elementi di autonomia e che, sulla base di dati e input forniti da macchine e/o dall’uomo, deduce come raggiungere una determinata serie di obiettivi avvalendosi di approcci di apprendimento automatico e/o basati sulla logica e sulla conoscenza, e produce output generati dal sistema quali contenuti, previsioni, raccomandazioni o decisioni, che influenzano gli ambienti con cui il sistema di IA interagisce”.

Tipi di AI
Software: assistenti virtuali, software di analisi delle immagini, motori di ricerca, sistemi di riconoscimento vocale e facciale

AI “incarnata”: robot, auto autonome, droni, Internet of Things

Applicazioni
Acquisti on line e pubblicità

Ricerca sul web

Assistenti personali digitali

Traduzioni automatiche

Case, città e infrastrutture intelligenti (risparmio energetico e regolamentazione del traffico)

Automobili (la navigazione è già in gran parte basata sull’intelligenza artificiale)

Sicurezza informatica

Intelligenza artificiale contro il Covid-19 (termografia, analisi dati)

Combattere le disinformazione – Alcune applicazioni di intelligenza artificiale possono rilevare notizie false e disinformazione estraendo informazioni sui social media, cercando parole sensazionali o allarmanti e identificando quali fonti online sono ritenute autorevoli.

Salute – I ricercatori stanno studiando come utilizzare l’intelligenza artificiale per analizzare grandi quantità di dati sanitari e scoprire modelli che potrebbero portare a nuove scoperte in medicina e modi per migliorare la diagnostica individuale.

Trasporto – L’intelligenza artificiale potrebbe migliorare la sicurezza, la velocità e l’efficienza del traffico ferroviario riducendo al minimo l’attrito delle ruote, massimizzando la velocità e consentendo la guida autonoma.

Produzione – L’intelligenza artificiale può aiutare i produttori europei a diventare più efficienti e riportare le fabbriche in Europa utilizzando robot nella produzione, ottimizzando i percorsi di vendita o prevedendo puntualmente la manutenzione e i guasti nelle fabbriche intelligenti.

Cibo e agricoltura – L’intelligenza artificiale può essere utilizzata per creare un sistema alimentare sostenibile dell’UE : può garantire alimenti più sani riducendo al minimo l’uso di fertilizzanti, pesticidi e irrigazione; aiutare la produttività e ridurre l’impatto ambientale. I robot potrebbero rimuovere le erbacce, riducendo ad esempio l’uso di erbicidi. Molte aziende agricole in tutta l’UE utilizzano già l’IA per monitorare il movimento, la temperatura e il consumo di mangime dei loro animali.

Pubblica amministrazione e servizi – Utilizzando un’ampia gamma di dati e riconoscimento di modelli, l’intelligenza artificiale potrebbe fornire allarmi precoci di disastri naturali e consentire un’efficiente preparazione e mitigazione delle conseguenze.

Fonte: Parlamento europeo [1]

Il dispositivo legislativo in corso di definizione sull’Intelligenza artificiale, basandosi su un approccio fondato sul concetto di rischio ne definisce i livelli associati ai diversi sistemi di IA che possono avere ricadute sulle persone, sulla loro vita, sui loro diritti connessi al lavoro e anche sulla salute e scurezza.

La classificazione per livelli di rischio derivanti dall’intelligenza artificiale implica un obbligo per fornitori e utenti di valutazione a seconda del livello. Quattro sono i livelli di rischio considerati: per ciascun livello saranno previste disposizioni più o meno stringenti.

  • rischio inaccettabile
  • rischio elevato
  • rischio limitato
  • rischio minimo o nullo
Livelli di rischio Esempi
Rischio inaccettabile
  • Manipolazione cognitivo-comportamentale di persone o specifici gruppi vulnerabili: ad esempio giocattoli ad attivazione vocale che incoraggiano comportamenti pericolosi nei bambini
  • Punteggio sociale: classificare le persone in base al comportamento, allo stato socio-economico o alle caratteristiche personali
  • Sistemi di identificazione biometrica remota e in tempo reale, come il riconoscimento facciale.

Eccezioni
Possono essere consentite alcune eccezioni: ad esempio, i sistemi di identificazione biometrica remota “post”, in cui l’identificazione avviene dopo un ritardo significativo, saranno autorizzati a perseguire reati gravi, ma solo dopo l’approvazione del tribunale.

Alto rischio I sistemi di IA che incidono negativamente sulla sicurezza o sui diritti fondamentali saranno considerati ad alto rischio e saranno suddivisi nelle seguenti due categorie:

  1. Sistemi di intelligenza artificiale utilizzati nei prodotti soggetti alla legislazione dell’UE sulla sicurezza dei prodotti: giocattoli, aviazione, automobili, dispositivi medici e ascensori.
  2. Sistemi di IA che rientrano in otto aree specifiche e che dovranno essere registrati in una banca dati dell’UE:
    – Identificazione biometrica e categorizzazione delle persone fisiche
    – Gestione e funzionamento delle infrastrutture critiche
    – Istruzione e formazione professionale
    – Occupazione gestione dei lavoratori e accesso al lavoro autonomo
    – Accesso e fruizione dei servizi privati essenziali e dei servizi te benefici pubblici
    – Applicazione della legge
    – Migrazione asilo gestione dei controlli alle frontiere
    – Assistenza nell’interpretazione giuridica e nell’applicazione della legge

Tutti i sistemi di IA ad alto rischio saranno valutati prima di essere immessi sul mercato e durante il ciclo di vita.

Generative AI [2]

L’IA generativa, come Chat GPT dovrebbe rispettare requisiti di trasparenza:

  • rivelare che il contenuto è stato generato dall’AI
  • progettare il modello per evitare che generi contenuti illegali
  • pubblicazione di riepiloghi di dati protetti da copyright utilizzati per la formazione
Rischio limitato I sistemi di IA a rischio limitato dovrebbero rispettare requisiti minimi di trasparenza che consentirebbero agli utenti di prendere decisioni informate, sapere quando interagiscono con l’IA. Ci si riferisce a sistemi che generano manipolano contenuti di immagini audio o video ad esempio i deepfake [3]
Rischio minimo Il Parlamento ne consente un libero utilizzo: rientra in questa categoria tutto ciò che include ad esempio applicazioni come videogiochi abilitati all’intelligenza artificiale o filtri antispam

 Con riferimento ai sistemi ad alto rischio l’Art. 9 del Regolamento prevede l’adozione di un sistema di gestione dei rischi per il quale si delinea un procedura che comprenderà le seguenti fasi:

  • identificazione e analisi dei rischi noti e prevedibili associati a ciascun sistema di IA ad alto rischio
  • stima e valutazione dei rischi che possono emergere quando il sistema di IA ad alto rischio è usato conformemente alla sua finalità prevista e in condizioni di uso improprio ragionevolmente prevedibile
  • valutazione di altri eventuali rischi derivanti dall’analisi dei dati raccolti dal sistema di monitoraggio successivo all’immissione sul mercato di cui all’articolo 61 del Regolamento
  • adozione di adeguate misure di gestione dei rischi conformemente alle disposizioni di cui ai paragrafi che seguono nell’articolato [4].

Mentre l’individuazione delle più appropriate misure di gestione dei rischi presuppone che venga garantito quanto segue:

  • l’eliminazione o la riduzione dei rischi per quanto possibile attraverso un’adeguata progettazione e fabbricazione
  • dove opportuno, l’attuazione di adeguate misure di attenuazione e di controllo in relazione ai rischi che non possono essere eliminati
  • la fornitura di informazioni adeguate a norma dell’articolo 13 del Regolamento e, ove opportuno, la formazione degli utenti.
Disposizioni complesse ma efficaci?

Dalla lettura, anche solo di alcuni punti salienti della Regolamentazione comunitaria relativa all’utilizzo dell’IA, si intuisce facilmente la complessità di queste nuove disposizioni, complessità legata alla materia in quanto tale ma anche al tentativo che Commissione e Parlamento sembrano voler fare per garantire la riduzione di rischi e danni conseguenti all’utilizzo dell’IA. Si vieta infatti l’uso di quei sistemi che vengono identificati come a rischio inaccettabile (ma prevedendo già da ora eccezioni) fornendo ad esempio indicazioni procedurali di carattere generale per la valutazione dei sistemi definiti ad alto rischio. Il Regolamento prevede inoltre un articolato elenco di obblighi per diversi soggetti tra cui in particolare fornitori e utenti di sistemi di IA ad alto rischio.

L’impressione che si ha leggendo le indicazioni procedurali è che si tratti (proprio per la loro complessità) di disposizioni che rischiano una applicazione burocratica, come talvolta avviene anche per la valutazione dei rischi in materia di salute e sicurezza sul lavoro. Mentre l’utilizzo dell’IA si diffonde molto rapidamente non si può non riflettere sulle difficoltà di controllo/vigilanza da parte delle istituzioni, le competenze dei cui addetti in materia sono da definire e da acquisire.

Prudenza nell’adozione/utilizzo/commercializzazione di questi sistemi e coinvolgimento delle forze sociali (non solo sindacati e associazioni datoriali ma mondo della ricerca esperti sui temi della sicurezza e sulle ricadute sociali) potrebbero essere due passaggi irrinunciabili per ridurre i rischi e i danni conseguenti a una mal gestione dell’IA e del suo utilizzo. Ma non sembra proprio che questi aspetti vengano tenuti adeguatamente in conto e i paletti che Parlamento e Commissione vogliono introdurre rischiano di essere inefficaci al di fuori di un quadro di azione condiviso (in particolare sui divieti e modalità di utilizzo), nei singoli paesi e a livello comunitario, e senza che la tempistica venga tenuta fortemente sotto controllo.

14% dei posti di lavoro nei paesi dell’OCSE sono automatizzabili.

Un altro 32% dovrebbe affrontare cambiamenti sostanziali (Studio del Parlamento europeo) [5]

Verrà istituito a livello comunitario un Comitato europeo per l’intelligenza artificiale, il comitato è composto dalle autorità nazionali di controllo (che dovranno essere istituite in ciascun Stato membro): sarebbe un buon segnale di responsabilità se sii prevedesse la partecipazione a tali organismi, sia a livello nazionale che comunitario, di esperti/ricercatori che esprimono posizioni critiche nei confronti dell’IA e del suo utilizzo: questo permetterebbe di non radicalizzare le posizioni a favore e contro tali sistemi e offrirebbe utili spunti per monitorare la realtà e intervenire dove necessario.


NOTE

[1] https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence.

[2] L’intelligenza artificiale generativa è un tipo di intelligenza artificiale che è in grado di generare testo, immagini, video, musica o altri media in risposta a delle richieste (Wikipedia).

[3] I deepfake sono foto, video e audio creati grazie a software di Intelligenza artificiale che, partendo da contenuti reali (immagini e audio), riescono a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo e a imitare fedelmente una determinata voce. (Fonte: Gpdp Garante protezione dati personali)

[4] Fonte: Parlamento europeo

[5] E dell’altro più del 50% che ne sarà?

Lascia un commento