“Governare l’intelligenza artificiale. Spunti per la progettazione di sistemi di intelligenza artificiale legali, etici e robusti” di Valentina Cavosi

Dott.ssa Valentina Cavosi, Lei è autrice del libro Governare l’intelligenza artificiale. Spunti per la progettazione di sistemi di intelligenza artificiale legali, etici e robusti pubblicato da Ledizioni: quali opportunità e quali sfide solleva l’Intelligenza Artificiale?
Governare l’intelligenza artificiale. Spunti per la progettazione di sistemi di intelligenza artificiale legali, etici e robusti, Valentina CavosiPenso sia evidente sempre più a noi tutti, che l’utilizzo di tecniche di automazione inquadrabili sotto il termine “Intelligenza Artificiale” stanno aprendo nuovi scenari in molti settori della nostra vita. Esempi li abbiamo quotidianamente osservando le pubblicità di prodotti che sempre più vantano l’uso di “Intelligenza artificiale”, oppure nel contesto sanitario dove i sistemi di intelligenza artificiale potranno essere sempre più a supporto alle decisioni mediche quali tendenze, rilevamento o la caratterizzazione della malattia in modo accurato e tempestivo. Oppure agli utilizzi per velocizzare i processi di assunzione, di assistenza domiciliare o quelli di indennità di malattia e disoccupazione. Esempi che già sollevano interrogativi e pongono nuove sfide dal punto di vista etico, legale e sociale per quanto riguarda la tutela dei diritti fondamentali, della privacy, della libertà di espressione, non discriminazione, trasparenza dei sistemi stessi e questioni di assunzione di responsabilità. Tra gli spunti del testo vengono infatti citati alcuni esempi reali di come queste tecnologie possono arrecare danni alla società, o benefici, e di conseguenza la sfida di equilibrare il tutto e governare ciò da parte delle persone è alla base degli spunti diffusi nel testo.

Quali sono principi etici e requisiti chiave per un’IA affidabile?
L’argomento è assai intricato e stratificato, proprio per questo nel testo si danno degli spunti di riflessione che richiedono studio e approfondimento, proprio in funzione di un contesto in continua evoluzione. I requisiti di cui parlo nel libro sono tanti e anche molto articolati come potete immaginare. Sicuramente è necessario iniziare a riflettere sui principi etici di questa tecnologia (principi delineati anche dalla Commissione Europea) e quindi parliamo del principio di autonomia umana, del principio di prevenzione dei danni, del principio di equità e di quello di esplicabilità. L’intelligenza artificiale per essere considerata affidabile deve per prima cosa rispettare tutti i regolamenti e le leggi applicabili nel contesto e poi dovrebbe anche aderire ai principi e valori etici mettendo in atto tutta una serie di requisiti e quindi dovrebbero essere garantiti.

Come si articola la proposta di regolamentazione dell’IA della Commissione Europea?
Ormai ad aprile 2021 la Commissione Europea ha pubblicato la sua prima proposta di regolamentazione dei sistemi di intelligenza artificiale e secondo questa proposta gli usi dell’AI saranno classificati sulla base del rischio. Alcuni sistemi saranno ad esempio vietati perché definiti a rischio inaccettabile. Altri sistemi dovranno per legge semplicemente rispettare obblighi di trasparenza (perché considerati a basso rischio), mentre altri dovranno conformarsi a severi obblighi prima di essere immessi sul mercato e quindi dovranno garantire la qualità del set di dati, la tracciabilità del sistema, alti livelli di robustezza, sicurezza e precisione. Questi sistemi, definiti dalla proposta come “sistemi ad alto rischio”, dovranno inoltre sottoporre il sistema ad adeguate valutazioni di mitigazione del rischio.

Quali sistemi consentono una valutazione dell’impatto dell’IA?
Possono esserci valutazioni sotto forma di checklist, di domande aperte o questionari che vanno ad indagare se i sistemi di intelligenza artificiale sono stati o vengono progettati con determinate caratteristiche. In questo momento vi è anche un tema di adeguamento a sistemi legislativi che, a parte esperienze canadesi, sono in rapida evoluzione e i cui rilasci saranno nel corso del 2002 e nei primi mesi del 2023.

Però queste valutazioni sono fondamentali soprattutto per la progettazione di sistemi di intelligenza artificiale affidabili, e anche per creare la fiducia in quello che possiamo chiamare l’“human-AI teamwork”. E per questo motivo che sin da ora nasce la diffusione di questo libro che è ricco di spunti, ed è proprio parte di un progetto di ”Artificial Intelligence Impact Assessment” che si sta sviluppando con uno spin-off partecipato dall’Università degli Studi di Milano-Bicocca, ReD Open srl.

Uno spin-off che si occupa di valutare l’impatto dei rischi normativi, organizzativi ed etici di tecnologie innovative, ma soprattutto di rendere consapevoli e pronti ad affrontare le nuove sfide le persone e le aziende, il tutto in una visione di responsabilità sociale.

ISCRIVITI ALLA NEWSLETTER
Non perderti le novità!
Mi iscrivo
Niente spam, promesso! Potrai comunque cancellarti in qualsiasi momento.
close-link