
Quali sono principi etici e requisiti chiave per un’IA affidabile?
L’argomento è assai intricato e stratificato, proprio per questo nel testo si danno degli spunti di riflessione che richiedono studio e approfondimento, proprio in funzione di un contesto in continua evoluzione. I requisiti di cui parlo nel libro sono tanti e anche molto articolati come potete immaginare. Sicuramente è necessario iniziare a riflettere sui principi etici di questa tecnologia (principi delineati anche dalla Commissione Europea) e quindi parliamo del principio di autonomia umana, del principio di prevenzione dei danni, del principio di equità e di quello di esplicabilità. L’intelligenza artificiale per essere considerata affidabile deve per prima cosa rispettare tutti i regolamenti e le leggi applicabili nel contesto e poi dovrebbe anche aderire ai principi e valori etici mettendo in atto tutta una serie di requisiti e quindi dovrebbero essere garantiti.
Come si articola la proposta di regolamentazione dell’IA della Commissione Europea?
Ormai ad aprile 2021 la Commissione Europea ha pubblicato la sua prima proposta di regolamentazione dei sistemi di intelligenza artificiale e secondo questa proposta gli usi dell’AI saranno classificati sulla base del rischio. Alcuni sistemi saranno ad esempio vietati perché definiti a rischio inaccettabile. Altri sistemi dovranno per legge semplicemente rispettare obblighi di trasparenza (perché considerati a basso rischio), mentre altri dovranno conformarsi a severi obblighi prima di essere immessi sul mercato e quindi dovranno garantire la qualità del set di dati, la tracciabilità del sistema, alti livelli di robustezza, sicurezza e precisione. Questi sistemi, definiti dalla proposta come “sistemi ad alto rischio”, dovranno inoltre sottoporre il sistema ad adeguate valutazioni di mitigazione del rischio.
Quali sistemi consentono una valutazione dell’impatto dell’IA?
Possono esserci valutazioni sotto forma di checklist, di domande aperte o questionari che vanno ad indagare se i sistemi di intelligenza artificiale sono stati o vengono progettati con determinate caratteristiche. In questo momento vi è anche un tema di adeguamento a sistemi legislativi che, a parte esperienze canadesi, sono in rapida evoluzione e i cui rilasci saranno nel corso del 2002 e nei primi mesi del 2023.
Però queste valutazioni sono fondamentali soprattutto per la progettazione di sistemi di intelligenza artificiale affidabili, e anche per creare la fiducia in quello che possiamo chiamare l’“human-AI teamwork”. E per questo motivo che sin da ora nasce la diffusione di questo libro che è ricco di spunti, ed è proprio parte di un progetto di ”Artificial Intelligence Impact Assessment” che si sta sviluppando con uno spin-off partecipato dall’Università degli Studi di Milano-Bicocca, ReD Open srl.
Uno spin-off che si occupa di valutare l’impatto dei rischi normativi, organizzativi ed etici di tecnologie innovative, ma soprattutto di rendere consapevoli e pronti ad affrontare le nuove sfide le persone e le aziende, il tutto in una visione di responsabilità sociale.