L’Intelligenza Artificiale sta evolvendo rapidamente, sollevando questioni etiche e normative sempre più urgenti. Dalla trasparenza all’equità, fino alla protezione dei dati e alla supervisione umana. Nell’articolo che vi proponiamo oggi, Lee McLean, Legal Counsel and AI Specialist di Zebra Technologies, rivela le best practice per l’implementazione della cosiddetta AI Responsible.
Buona lettura!
Come possiamo definire ‘AI Responsible’ e tradurlo in azione?
L’etica – e l’urgenza esistenziale – che guida le politiche di Intelligenza Artificiale responsabile (AI Responsible) si basa su principi come privacy, sicurezza, equità e trasparenza. Tuttavia, sono in molti a confondere concetti legati all’AI, come il machine learning, gli algoritmi adattivi, il deep learning, l’elaborazione del linguaggio naturale e le tecnologie di AI generativa (GenAI), che stanno alimentando l’attuale crescita dell’intelligenza artificiale. Le persone temono che i propri dati vengano usati in modo non appropriato, che le loro parole vengano fraintese e che il loro lavoro venga rappresentato in modo distorto. Queste preoccupazioni stanno creando un clima di paura, incertezza e dubbio.
Come possiamo mantenere il controllo sull’AI affinché non inganni, diffonda disinformazione o causi danni alle persone? Come possiamo garantire che i modelli di AI integrati nei prodotti non violino contenuti protetti da copyright, siano privi di bias o non interferiscano negativamente con i mezzi di sussistenza delle persone? Come possiamo assicurare all’AI un giusto livello di autosufficienza e autonomia, tutelando al contempo sia i consumatori che le aziende?
Queste sono domande complesse a cui non è facile rispondere, soprattutto perché il valore dell’AI continua a crescere e i possibili casi d’uso si moltiplicano. La buona notizia è che molti ingegneri dell’AI, accademici, esperti legali, policymaker e leader aziendali stanno lavorando attivamente su questi temi, mentre nuove normative cercano di bilanciare l’AI Responsible con l’innovazione. Prima di capire come le aziende possano mettere in pratica l’AI Responsible, è fondamentale rispondere a un’altra domanda: che significa, esattamente, AI Responsible?
Possiamo definire l’AI Responsible?
Esistono molte definizioni diverse che generalmente convergono, ma l’International Organisation for Standardisation (ISO) fornisce una base solida per definirla. Secondo l’ISO, “L’AI Responsible è un approccio allo sviluppo e all’implementazione dell’intelligenza artificiale che considera sia gli aspetti etici che quelli legali”.
L’obiettivo è garantire un uso sicuro, affidabile ed etico dell’AI. Adottare un approccio responsabile all’AI dovrebbe migliorare la trasparenza e contribuire a ridurre problemi come i bias dell’AI.
Sebbene l’intento dell’AI Responsible sia piuttosto chiaro, la vera sfida emerge quando si cerca di tradurre questa teoria in pratica: è proprio qui che gli stakeholder faticano a trovare un consenso. Come ha affermato Tess Valbuena, CEO ad interim di Humans in the Loop, “La necessità di una supervisione sull’AI – e il grado di controllo da applicare – non è così oggettiva come molti vorrebbero che fosse”.
Attualmente, è compito delle aziende e degli individui sviluppare framework per un’AI Responsible e determinare come conformarsi agli standard etici e ai processi di supervisione correlati. Tuttavia, molte organizzazioni di standardizzazione, agenzie di regolamentazione governative e ordini professionali stanno cercando di fornire linee guida di riferimento.
Negli Stati Uniti, ad esempio, un Ordine Esecutivo emesso nell’ottobre 2023 sullo Sviluppo e l’Uso Sicuro, Protetto e Affidabile dell’AI (EO 14110) ha posto le basi per l’evoluzione degli standard di gestione del rischio nell’AI. Uno degli obiettivi dell’EO 14110 era incaricare il National Institute of Standards and Technology (NIST) di sviluppare standard per l’AI generativa entro 270 giorni dalla pubblicazione dell’ordine. Nel luglio 2024, il NIST ha rilasciato l’AI Risk Management Framework (RMF): Generative AI Profile (NIST AI 600-1), un documento complementare al NIST AI RMF, pubblicato in precedenza nel gennaio 2023. Anche a luglio 2024, l’Unione Europea (UE) ha approvato una normativa pionieristica: l’AI Act dell’UE, il primo quadro giuridico completo pensato per regolamentare lo sviluppo e l’uso dell’intelligenza artificiale.
Applicare l’AI Responsible in azienda
Quali passi dovrebbero compiere le aziende per garantire l’adozione e il rispetto delle pratiche di AI Responsible? Rispondere a questa domanda non è semplice senza conoscere il tipo specifico di AI utilizzata e il modo in cui viene applicata all’interno dell’azienda. Tuttavia, esistono alcune best practice generali che possono guidare le organizzazioni verso un’implementazione più etica e sicura dell’intelligenza artificiale:
- Verificare e valutare la fonte del modello o dello strumento di AI – È fondamentale Comprendere i principi etici, le politiche e le pratiche del fornitore di AI e di qualsiasi altra parte coinvolta nella sua formazione o supervisione continua. Hanno seguito un approccio responsabile durante lo sviluppo e l’addestramento del modello? Quali sono le loro intenzioni attuali e a lungo termine riguardo al modello?
- Analizzare la fonte dei dati utilizzati per l’addestramento del modello di AI e il modo in cui vengono gestiti – Sono previsti dei controlli per impedire che informazioni non pubbliche o riservate vengano condivise al di fuori dell’istanza del modello o dell’organizzazione? Se il modello utilizza input di terze parti per fornire servizi, l’azienda può fidarsi della fonte dei dati.
- Garantire la supervisione umana nel processo (HITL – Humans-in-the-Loop) – Il concetto di HITL è ampiamente trattato nelle risorse citate sopra. Tuttavia, è fondamentale ribadire l’importanza del coinvolgimento umana nei sistemi di AI. Integrare il giudizio e l’intervento umano nel processo decisionale dell’AI può essere essenziale per migliorarne sicurezza, affidabilità e conformità etica.
- Riconoscere il rischio di allucinazioni nei modelli di AI e definire linee guida per la verifica degli output – È fondamentale non diffondere né utilizzare output generati dall’AI senza averne prima verificato l’accuratezza. Anche i modelli di AI più avanzati e ben addestrati possono produrre risultati errati, proprio come gli esseri umani. In generale, per ridurre al minimo il rischio di allucinazioni, una delle migliori pratiche è implementare un approccio HITL (Humans-in-the-Loop).
- Verificare il diritto di inserire dati di terze parti nel modello di AI e implementare misure di protezione per evitare che i dati vengano utilizzati senza le dovute autorizzazioni – I dati possono includere informazioni su clienti, partner, fornitori o conoscenze generali di mercato, storie e dati operativi. Questi elementi potrebbero contenere informazioni riservate, materiali protetti da copyright, dati personali o altri contenuti che richiedono un’esplicita autorizzazione per essere utilizzati.
- Attribuire correttamente le fonti nella generazione degli output dell’AI – È fondamentale che le aziende riconoscano l’origine delle informazioni quando utilizzano l’AI per generare contenuti, indipendentemente dal formato o dall’uso previsto. I responsabili dei progetti di AI generativa (GenAI) devono comprendere le differenze e le correlazioni tra “autorialità” e “proprietà” dei contenuti o prodotti creati con l’AI. Garantire un’adeguata attribuzione delle fonti dei contenuti generati dall’AI rafforza il principio chiave della trasparenza nelle pratiche di AI Responsible.
Conclusioni
Le pratiche di AI Responsible non si limitano solo alla conformità normativa, ma riflettono l’integrità, i valori e la cultura di un’azienda. Sebbene formazione aggiuntiva e procedure specifiche siano utili per affrontare le complessità dell’AI e della GenAI, le organizzazioni dovrebbero basare il loro approccio su un solido codice etico aziendale, che serva da guida e garanzia.
di Lee McLean, Legal Counsel and AI Specialist di Zebra Technologies