hronline
     n. 18 anno 2024

La Legge Europea sull'IA : Perché Sia i Fornitori che gli Utilizzatori di AI Devono Garantire la Formazione

di Giulia Leardi e Pier Paolo Monticone

 

 

 


Come è noto a tutti, internet è una tecnologia che ha svolto e sta ancora svolgendo un ruolo determinante nella rivoluzione digitale: “la rete” da esoterico strumento di lavoro per pochi informatici è divenuta (in circa 30 anni) un mezzo di comunicazione di massa.

L’Intelligenza artificiale (AI) (1) sta stravolgendo la nostra realtà, ma molto più velocemente di internet. Si potrebbe già immaginarla come un adolescente a cui devono essere date delle regole, per evitare che crei dei problemi.

Proprio in tal senso, lo scorso 12 luglio è stato pubblicato sulla Gazzetta Europea il Regolamento (UE) 2024/1689 del 13 giugno 2024, noto come AI (Artificial Intelligence) Act: https://artificialintelligenceact.eu/.

 Anche il nostro Governo, a pochi giorni dalla pubblicazione dell’AI Act, ha reso disponibile la “Strategia Italiana per l’Intelligenza Artificiale 2024 -2026”.

Vediamoli, brevemente, entrambi.

Lo scopo del Regolamento EU AI Act è [art 1]:

a) migliorare il funzionamento del mercato interno istituendo un quadro giuridico uniforme per quanto riguarda lo sviluppo, l'immissione sul mercato, la messa in servizio e l'uso di sistemi di intelligenza artificiale (sistemi di IA) nell'Unione;

b) promuovere la diffusione di un'intelligenza artificiale (IA) antropocentrica e affidabile;

c) garantire,allo stesso tempo, un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell'Unione europea («Carta»), compresi la democrazia, lo Stato di diritto e la protezione dell'ambiente, proteggere contro gli effetti nocivi dei sistemi di IA nell'Unione, nonché promuovere l'innovazione;

d) garantire la libera circolazione transfrontaliera di beni e servizi basati sull'IA, impedendo così agli Stati membri di imporre restrizioni allo sviluppo, alla commercializzazione e all'uso di sistemi di IA.

Qual è la definizione che esso fornisce di AI [considerando 4]:

“L'IA consiste in una famiglia di tecnologie in rapida evoluzione che contribuisce al conseguimento di un'ampia gamma di benefici a livello economico, ambientale e sociale nell'intero spettro delle attività industriali e sociali. L'uso dell'IA, garantendo un miglioramento delle previsioni, l'ottimizzazione delle operazioni e dell'assegnazione delle risorse e la personalizzazione delle soluzioni digitali disponibili per i singoli e le organizzazioni, può fornire vantaggi competitivi fondamentali alle imprese e condurre a risultati vantaggiosi sul piano sociale e ambientale, ad esempio in materia di assistenza sanitaria, agricoltura, sicurezza alimentare, istruzione e formazione, media, sport, cultura, gestione delle infrastrutture, energia, trasporti e logistica, servizi pubblici, sicurezza, giustizia, efficienza dal punto di vista energetico e delle risorse, monitoraggio ambientale, conservazione e ripristino della biodiversità e degli ecosistemi, mitigazione dei cambiamenti climatici e adattamento ad essi.”

Che cosa prevede il Regolamento per ottenere i massimi benefici dai sistemi AI proteggendo nel contempo i diritti fondamentali, la salute e la sicurezza? L’Alfabetizzazione in materia di AI, “Tali nozioni possono variare in relazione al contesto pertinente e possono includere la comprensione della corretta applicazione degli elementi tecnici durante la fase di sviluppo del sistema di IA, le misure da applicare durante il suo utilizzo, le modalità adeguate per interpretare l'output del sistema di IA e, nel caso delle persone interessate, le conoscenze necessarie per comprendere in che modo le decisioni adottate con l'assistenza dell'IA incideranno su di esse” [considerando 20]

Chi deve essere alfabetizzato [art 3]:

3) «fornitore»: una persona fisica o giuridica, un'autorità pubblica, un'agenzia o un altro organismo che sviluppa un sistema di IA o un modello di IA per finalità generali o che fa sviluppare un sistema di IA o un modello di IA per finalità generali e immette tale sistema o modello sul mercato o mette in servizio il sistema di IA con il proprio nome o marchio, a titolo oneroso o gratuito;

4)  «deployer»: una persona fisica o giuridica, un'autorità pubblica, un'agenzia o un altro organismo che utilizza un sistema di IA sotto la propria autorità, tranne nel caso in cui il sistema di IA sia utilizzato nel corso di un'attività personale non professionale; [2]

5)  «rappresentante autorizzato»: una persona fisica o giuridica ubicata o stabilita nell'Unione che ha ricevuto e accettato un mandato scritto da un fornitore di un sistema di IA o di un modello di IA per finalità generali al fine, rispettivamente, di adempiere ed eseguire per suo conto gli obblighi e le procedure stabiliti dal presente regolamento;

6)  «importatore»: una persona fisica o giuridica ubicata o stabilita nell'Unione che immette sul mercato un sistema di IA recante il nome o il marchio di una persona fisica o giuridica stabilita in un paese terzo;

7)  «distributore»: una persona fisica o giuridica nella catena di approvvigionamento, diversa dal fornitore o dall'importatore, che mette a disposizione un sistema di IA sul mercato dell'Unione”.

Entro quando il Regolamento entra in vigore [art 113]:

“Il presente regolamento entra in vigore il ventesimo giorno successivo alla pubblicazione nella Gazzetta ufficiale dell'Unione europea.

  Si applica a decorrere dal 2 agosto 2026.

  Tuttavia:

a)  I capi I (DISPOSIZIONI GENERALI) e II (PRATICHE DI IA VIETATE) si applicano a decorrere dal 2 febbraio 2025;

b)  Il capo III (SISTEMI DI IA AD ALTO RISCHIO), sezione 4 (Autorità di notifica e organismi notificati), il capo V (MODELLI DI IA PER FINALITÀ GENERALI), il capo VII (GOVERNANCE), il capo XII (SANZIONI) e l'articolo 78 della Sezione 3 del Capo IX (Riservatezza dell’ Applicazione del MONITORAGGIO SUCCESSIVO ALL'IMMISSIONE SUL MERCATO, CONDIVISIONE DELLE INFORMAZIONI E VIGILANZA DEL MERCATO) si applicano a decorrere dal 2 agosto 2025, ad eccezione dell'articolo 101 (Sanzioni pecuniarie per i fornitori di modelli di IA per finalità generali);

c)  L'articolo 6, paragrafo 1, e i corrispondenti obblighi di cui al presente regolamento si applicano a decorrere dal 2 agosto 2027”.

Quindi, è già tempo che le società si dotino di policy e procedure atte alla regolamentazione dell’utilizzo dell’AI, che strutturino piani di informazione, formazione e comunicazione per i propri dipendenti, shareholders ed altri stakeholders con un occhio di riguardo a coloro che saranno impattati dall’EU AI act, per esempio gli addetti alle risorse umane.

In Italia già da 2023 era stata pubblicata la Prassi di Riferimento dedicata alla sostenibilità digitale (Prassi di Riferimento UNI/PdR 147/2023 - “Sostenibilità digitale – Requisiti e indicatori per i processi di innovazione”.

Nell’agosto di quest’anno subito dopo l’approvazione de lRegolamento EU AI act, il nostro Governo ha pubblicato la Strategia Italiana per l’Intelligenza Artificiale 2024-2026 (Pubblicato il documento completo della Strategia Italiana per l’Intelligenza Artificiale 2024-2026 | Agid, redatta da un Comitato di esperti per supportare il Governo nella definizione di una normativa nazionale e delle strategie relative a questa tecnologia.

Il documento riflette l’impegno del Governo nel creare un ambiente in cui l’IA possa svilupparsi in modo sicuro, etico e inclusivo, massimizzando i benefici e minimizzando i potenziali effetti avversi.

Dopo un’analisi del contesto globale e del posizionamento italiano, il documento definisce le azioni strategiche, raggruppate in quattro macroaree: Ricerca, Pubblica Amministrazione, Imprese e Formazione.

Nella parte dedicata alla formazione si legge: “Affinché le applicazioni derivanti dall’IA producano effetti positivi su tutta la società, riducendo i rischi, sarà necessario allargare ancora di più il concetto di “formazione”, puntando in Italia a implementare un processo di alfabetizzazione sull’IA che coinvolga la scuola, i lavoratori e i cittadini tutti, con attenzione alle categorie più deboli.”.

Quanto contenuto nell’EU AI Act e nella Strategia italiana per l’AI era già stato oggetto di attenzione da parte di società di consulenza strategica.

Infatti, i risultati dello studio Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality, condotto dal Boston Consulting Group (BCG) in collaborazione con Harvard Business School (pubblicazione del 22 settembre 2023), sono in linea con le disposizioni del AI Act. Lo studio evidenzia quanto sia cruciale una formazione adeguata non soltanto per massimizzare i benefici dell’Intelligenza Artificiale (AI) e anche minimizzarne i rischi, in particolare nei compiti complessi e centrati sull’uomo, come quelli legati alle Risorse Umane (HR).

Con il nuovo AI Act, le organizzazioni sono tenute a implementare programmi di formazione per i dipendenti che utilizzano sistemi di AI. Questo obbligo non è solo una formalità normativa, ma anche un imperativo strategico, come dimostrato dallo studio BCG. I risultati mostrano che gli individui che hanno ricevuto una formazione aggiuntiva, come le tecniche di prompt engineering, hanno visto un miglioramento più marcato in termini di produttività e qualità del lavoro quando utilizzano l’AI.

Tuttavia, lo studio BCG ha anche rivelato un rischio significativo legato all’uso dell’AI: l’eccessiva fiducia in essa. Quando i professionisti hanno utilizzato l’AI per compiti al di fuori delle sue capacità, la qualità del loro lavoro è peggiorata. Ad esempio, in compiti che richiedono giudizio umano sfumato, come le decisioni strategiche, coloro che si sono affidati pesantemente all’AI hanno prodotto risultati peggiori rispetto a coloro che non l’hanno utilizzata affatto. Questo sottolinea l’importanza di comprendere i limiti dei sistemi di AI, in particolare i Large Language Models (LLMs) come GPT-4o1 (l’AI dietro OpenAI ChatGPT).

Sebbene gli strumenti di AI siano potenti, possono avere difficoltà con compiti complessi o ambigui. Se i lavoratori non sono adeguatamente formati per riconoscere questi limiti, potrebbero affidarsi alle soluzioni generate dall’AI senza valutarne criticamente la validità, portando a decisioni subottimali o errate. Nel contesto delle risorse umane, questo potrebbe tradursi in valutazioni errate dei candidati o decisioni di gestione del personale basate su output di AI imprecisi o distorti.

Per mitigare questi rischi è essenziale fornire una formazione completa, non solo per massimizzare i benefici dell’AI, ma anche per proteggere dall’uso improprio di questi strumenti. I’ AI Act sottolinea la necessità di alfabetizzazione sui temi dell’AI, assicurando che gli utenti siano consapevoli di problemi quali:

  • Natura Stocastica degli LLM: Gli utenti devono comprendere che i modelli di AI generano risposte probabilistiche basate su schemi nei dati, piuttosto che risposte deterministiche o sempre “corrette".

  • Allucinazioni dell’AI: A volte l’AI può generare risposte completamente inventate o fattualmente errate, fenomeno noto come “allucinazione”. Senza una formazione adeguata, gli utenti potrebbero accettare questi output come veritieri.

  • Consapevolezza dei Bias: I sistemi di AI sono addestrati su enormi dataset che possono contenere bias intrinseci, e senza un’adeguata gestione, questi bias possono essere replicati o addirittura amplificati dall’AI. Ad esempio, studi hanno dimostrato come diversi LLM mostrino gradi variabili di bias politico. In uno studio condotto dalla Stanford University, GPT-3 è stato trovato incline a un bias politico di sinistra, mentre altri modelli mostravano bias diversi in base ai differenti dati usati nel training/addestramento del AI. Nel contesto HR ciò potrebbe tradursi in raccomandazioni di assunzione distorte, dove alcuni gruppi demografici potrebbero essere favoriti o svantaggiati basandosi su dati storici anziché sul merito. È cruciale formare gli utenti ad essere consapevoli diquesti bias per garantire un uso equo e non discriminatorio dell’AI.

  • Dipendenza dai Dati: I modelli di AI sono efficaci solo quanto i dati su cui sono addestrati. Se i dati sono incompleti, datati o squilibrati, gli output dell’AI rifletteranno tali carenze. Ad esempio, un sistema di AI addestrato su dati del mercato del lavoro obsoleti potrebbe classificare erroneamente i ruoli lavorativi moderni o non cogliere le tendenze industriali attuali. È essenziale che i professionisti HR riconoscano questi limiti e garantiscano che i dati di addestramento dell’AI siano rilevanti e rappresentativi.

  • Trasparenza e Spiegabilità: I sistemi di AI, specialmente i modelli di grandi dimensioni, spesso operano come “scatole nere”, il che significa che gli utenti non possono facilmente comprendere come il sistema sia giunto ad una determinata decisione. Questa mancanza di trasparenza rappresenta una sfida nell’HR, dove la responsabilità delle decisioni – come assunzioni o promozioni – è essenziale. La formazione dovrebbe concentrarsi sull’aiutare gli utenti a interpretare criticamente le raccomandazioni dell’AI e a non seguire ciecamente le indicazioni generate senza comprendere la logica sottostante.

  • Uso Etico e Responsabilità: Sebbene l’AI possa assistere numerosi processi HR, introduce anche preoccupazioni etiche, specialmente riguardo alla responsabilità. Ad esempio, se una decisione di assunzione basata sull’AI risulta errata o discriminatoria, chi è responsabile: il team HR o i progettisti dell’AI? Le organizzazioni devono garantire che i dipendenti siano formati a vedere l’AI come uno strumento assistivo piuttosto che come un decisore autonomo. La supervisione e la responsabilità umana sono fondamentali.

  • Drift del Modello di AI: Nel tempo, i modelli di AI possono sperimentare un “drift”, dove i loro output diventano meno accurati man mano che l’ambiente reale evolve, specialmente se il modello non viene regolarmente ricalibrato con nuovi dati. Per i professionisti HR ciò potrebbe significare che i sistemi AI fanno raccomandazioni basate su assunzioni obsolete.
    La formazione dovrebbe insegnare agli utenti a riconoscere quando i modelli di AI devono essere aggiornati e come avviare tale processo per evitare errori dovuti al drift del modello.

  • Privacy dei Dati e Conformità: I sistemi di AI gestiscono spesso grandi quantità di dati personali sensibili, in particolare nelle funzioni HR. Garantire che questi sistemi siano conformi alle normative sulla privacy dei dati, come il GDPR, è essenziale per evitare ripercussioni legali. La formazione deve includere la comprensione di come gli strumenti di AI trattano i dati personali e i passi necessari per proteggere la privacy dei dipendenti. Questo include garantire che i dati siano anonimizzati quando appropriato e aderire ai principi di minimizzazione dei dati.

Attraverso l’inclusione di queste considerazioni, le aziende possono creare programmi di formazione robusti che non solo garantiscono la conformità con l’ AI Act, ma anche forniscono ai dipendenti le competenze necessarie per utilizzare gli strumenti di AI in modo efficace ed etico. I dipendenti adeguatamente formati saranno meglio posizionati per sfruttare tutto il potenziale dell’AI, evitando al contempo i rischi comuni, come l’eccessiva dipendenza dalla tecnologia o la perpetuazione dei bias.

Le aziende, siano esse grandi organizzazioni o PMI, devono considerare l'alfabetizzazione in materia di AI come un investimento strategico, piuttosto che un onere regolamentare. La creazione di politiche, procedure e linee guida sull'uso dell'IA non solo assicurerà la conformità con il nuovo AI Act, ma preparerà anche le organizzazioni a sfruttare appieno il potenziale dell'IA in modo etico, sicuro e responsabile.

[1] AI= IA = Intelligenza Artificiale
[2] Da una prima interpretazione si potrebbe affermare che il “deployer” non debba per forza essere in EU ma basta che l’output dell’AI sia usato in EU .

 

Avv.to Giulia Leardi - Partner Studio Legale Lexellent

Ing. Pier Paolo Monticone (AI-Assisted Innovation Expert)

 

  • © 2024 AIDP Via E.Cornalia 26 - 20124 Milano - CF 08230550157 - tel.02/6709558 02/67071293

    Web & Com ®