
Alcuni esempi possono aiutare a chiarire. Nel mondo del lavoro, i sistemi algoritmici si occupano sempre più spesso della gestione della forza lavoro affiancando (alle volte sostituendo del tutto) gli esseri umani nell’assumere decisioni rilevanti in tema di turni, retribuzione, misure disciplinari, valutazione delle performance dei lavoratori. Un ruolo analogo viene svolto dalle euristiche computazionali che sui social media stabiliscono quali post meritano di essere pubblicati e quali invece meritano di essere bloccati e segnalati a un operatore umano. Gli algoritmi iniziano a materializzarsi anche nella sfera pubblica inserendosi nell’iter che conduce all’adozione di provvedimenti amministrativi diversi dalla formazione di graduatorie pubbliche allo svolgimento di controlli per combattere le frodi al sistema previdenziale.
Nei fatti, la capacità regolativa degli algoritmi è ormai uscita da un mondo, il web, dove il ruolo intrinsecamente normativo del codice informatico è stato identificato e discusso per la prima volta negli anni Novanta. Gli algoritmi sono entrati a far parte della grammatica dello stesso diritto attraverso un processo in cui codice informatico e codice giuridico tendono a confondersi, ad ibridarsi. Dopo la “lex informatica” del ciberspazio, è il tempo del tecnodiritto, della tecnoregolazione.
Come si concreta il paradigma della tecnoregolazione?
L’idea di sfruttare la tecnologia per regolare il comportamento degli individui ha trovato collocazione in un significativo numero di contesti dando vita a un fenomeno che ha già raggiunto un notevole grado di eterogeneità sul piano dei contenuti e delle forme. Ci troviamo oggi di fronte alla possibilità di usare strumenti tecnologici per supportare, con livelli di cogenza diversi, momenti nodali dell’intero spettro del processo regolativo in senso lato inteso, dalla definizione della norma da applicare alla sua implementazione attraverso attività di controllo o enforcement.
Un caso concreto che aiuta a comprendere le diverse dimensioni del fenomeno risale ai primi anni 2000, quando i titolari di un golf club del Warwickshire misero a punto un “ambiente normativo” per impedire furti e usi scorretti delle proprie golf-car. La soluzione immaginata prevedeva l’installazione, su ciascun veicolo, di un sistema di controllo automatico basato su GPS, in grado di arrestare il mezzo ogni qual volta questo fosse stato condotto, per errore o intenzionalmente, oltre i limiti di una sorta di “geo-recinzione virtuale”.
Se ci si riflette, nel caso appena citato, la tecnologia materializza uno spazio nel quale collassano gli elementi costitutivi del processo regolativo evocato sopra: la definizione del comportamento vietato (attraverso un algoritmo che stabilisce quali sono le coordinate non ammesse); l’identificazione delle infrazioni alla regola (attraverso un algoritmo che analizza i dati provenienti dal trasmettitore GPS installato sulle golf-car); l’esecuzione del precetto (attraverso un algoritmo che decide di bloccare il veicolo).
Generalizzando, possiamo dire che il paradigma della tecnoregolazione si concretizza in usi della tecnologia che vanno fondamentalmente in tre direzioni. La prima è quella dell’identificazione degli individui e della rilevazione dei fatti coinvolti nell’applicazione di una regola o decisione algoritmica. Come accade nei processi di regolazione tradizionale, anche in quelli “tecnoregolativi” è necessario identificare i destinatari della norma (i soggetti meritevoli di protezione, gli individui da gestire o, ancora le persone da controllare o punire) e gli eventi (un accadimento naturale, un’azione umana) al cui verificarsi deve seguire la produzione degli effetti desiderati. Un esempio concreto posso offrirlo a partire da un progetto condotto con colleghi dell’Università di Salerno nel quale esploriamo sperimentalmente approcci tecnoregolativi alla tutela dei minori online (https://bit.ly/3qXhfmN). La prima fase del progetto si è concentrata proprio sulla messa a punto di soluzioni innovative (nel caso di specie, l’analisi dell’interazione fisica con il tablet o lo smartphone mediante tecniche di intelligenza artificiale) per identificare in maniera automatica i soggetti bisognosi di tutela.
In un secondo gruppo di casi, la tecnologia viene usata per dare esecuzione alla regola. In quest’ottica, gli algoritmi possono essere utilizzati per impedire materialmente i comportamenti ritenuti dannosi o, ancora, per esplicare gli effetti in senso lato normativi previsti dalla regola algoritmica. Un esempio del primo tipo di “soluzione algoritmica” è rappresentato dal ricorso alla crittografia e dallo sviluppo piattaforme ad hoc per tutelare la proprietà intellettuale nella circolazione di modelli industriali 3D. La produzione diretta di effetti attraverso strumenti tecnologici è invece tipica degli smart contract, nei quali l’esecuzione di una prestazione contrattuale (es. il versamento di una somma di denaro) ha luogo automaticamente al verificarsi di condizioni prestabilite (es. l’invio di un file) rilevate da un software.
Infine, nel terzo gruppo di casi, concettualmente vicino al modello regolativo dei “nudge”, la tecnologia è impiegata per persuadere o spingere le persone a rispettare norme e regole di condotta attraverso avvertimenti, messaggi, suggerimenti mirati o, ancora, l’esercizio di forme di condizionamento mediate da meccanismi reputazionali. Appartiene a questa prospettiva lo sviluppo di agenti intelligenti in grado di assistere gli utenti durante le loro interazioni online per proteggerli dalla minaccia di truffe.
A quali rischi ci espone il ricorso a processi algoritmici imperscrutabili?
Il rischio più immediato (e immediatamente percepibile) è la contrazione delle possibilità di controllo e critica nei confronti di processi che, come accennato, incidono su interessi rilevanti e sensibili dal diritto a non essere discriminati a quello a condizioni lavorative dignitose. Da questo punto di vista, senza negare le prospettive di sviluppo scientifico ed economico dischiuse dalle tecnologie dell’informazione, possiamo affermare che gli algoritmi aprono il varco a nuove forme di ingiustizia e abuso difficili da identificare prima ancora che da contrastare.
Il fenomeno assume sfumature particolari quando la tecnologia diventa strumento di implementazione di norme in senso stretto giuridiche. L’ingresso degli algoritmi nei processi di regolazione, tutela ed enforcement rischia di svuotare di contenuto elementi costitutivi dello Stato di diritto.
Un primo rischio coinvolge il delicato tema della certezza del diritto, e cioè la possibilità di fare affidamento sui termini che regolano la vigenza, gli effetti e la concreta applicazione delle norme giuridiche. L’inaccessibilità di enunciati normativi implementati in algoritmi e la natura intrinsecamente aleatoria delle tecniche classificatorie e predittive su cui si basa la loro applicazione, genera fenomeni di incertezza che si affiancano a quelli già derivanti dalle inconsistenze del quadro ordinamentale o dagli eccessi nell’esercizio della discrezionalità amministrativa o giudiziaria.
Un secondo rischio, strettamente collegato al precedente, è quello che la natura tecnica delle norme algoritmiche si traduca in un limite all’esercizio del diritto di difesa e alla possibilità di contestare la legittimità delle regole giuridiche attraverso forme di resistenza o disobbedienza civile. Un diritto fatto di regole scritte in codice informatico che si applica da solo ed evolve i suoi contenuti nascondendo i meccanismi alla base del suo funzionamento ostacola la disobbedienza civile quale forma di partecipazione attiva della collettività alle scelte dei governanti. Senza accesso al codice e ai dati che lo alimentano, vengono meno le premesse di una critica responsabile e di un contributo dei cittadini all’evoluzione sociale, civile ed etica dello Stato.
Detto questo, è importante tener presente che i sistemi di decisione algoritmica generano anche rischi che non dipendono in senso stretto dall’opacità del codice ma dal fatto che gli algoritmi entrano in relazione con altri fattori quali i nostri limiti cognitivi le strutture di interazione sociale. Ricerche molto recenti, per essere concreti, mostrano come il decadimento della qualità delle informazioni che circolano in rete (fake news, contenuti violenti o razzisti) derivi dalla complessa trama di interazioni che si viene a determinare tra gli algoritmi di ranking solitamente usati dai social media per decidere quali post mostrare, i like espressi dai bot e i limiti intrinseci della nostra capacità di attenzione. I problemi, dunque, non risiedono nel singolo componente, ma in dinamiche di sistema che non sono meno oscure e imperscrutabili degli algoritmi che contribuiscono a generarle.
Quali forme e strategie può assumere la resistenza all’ingiustizia algoritmica?
La resistenza nei confronti dell’ingiustizia algoritmica è destinata inevitabilmente a tingersi di sfumature tecnologiche. Non è un caso che da qualche anno si discuta di “data and algorithmic disobedience”, un insieme di pratiche di resistenza mediate dalla tecnologia e ispirate al rifiuto di subire passivamente i modelli emergenti di governo algoritmico della società. Le strategie da mettere in campo in quest’ottica si collocano su piani diversi.
Una prima strategia è quella di provare a rendere più penetrante il controllo umano sul funzionamento degli algoritmi. Le pratiche funzionali al raggiungimento di questo obiettivo vanno dall’analisi del codice informatico (quando questo è accessibile), alla predisposizione di strumenti che permettano di raccogliere dati utili a ricostruire ex post la logica di funzionamento degli algoritmi. Un progetto che si muove in questa direzione e a cui sto lavorando è GigAdvisor (https://gigadvisor-frontend.web.app/home), un’architettura cross-platform sperimentale (app mobile e sito web) che si concentra sul modo della gig economy e sulla possibilità di ottenere dai lavoratori stessi le informazioni necessarie per analizzare l’operato delle labour platform e degli algoritmi da queste usati per la gestione della forza lavoro.
Una seconda strategia punta a confondere i sistemi di decisione automatica e si basa sulla consapevolezza che le scelte che ci riguardano sono spesso basate su classificazioni e previsioni inferite da dati reali. Se si considera che una parte significativa di questi dati deriva dalle nostre interazioni con app e siti web, si comprende come la lotta alle ingiustizie algoritmiche possa essere supportata da strategie di “offuscamento”, tecniche orientate a depistare gli algoritmi alterando ove possibile i dati prodotti dalle nostre interazioni. In termini pratici, la scelta si traduce nel fornire deliberatamente informazioni ambigue, confuse o fuorvianti capaci di interferire con i progetti di sorveglianza e raccolta dei dati.
Una terza forma di resistenza consiste nella raccolta critica di dati. Contrariamente a quanto suggerito dalla retorica invalsa negli ultimi anni, l’analisi automatica di grandi quantità di dati non conduce necessariamente a scelte più obiettive o meglio fondate in termini empirici e questo non solo per ragioni legate a possibili difetti degli algoritmi. Nel mondo delle decisioni data-driven, le discriminazioni e le ingiustizie possono derivare anche dal fatto che intere categorie di circostanze o persone siano state ignorate durante la raccolta dei dati da processare: i dati esclusi dalle analisi pesano alle volte tanto quanto quelli considerati. In questo scenario, la resistenza all’ingiustizia algoritmica può svolgersi anche attraverso la raccolta sistematica, la messa a disposizione e la lotta per la considerazione di dati relativi ad evidenze in grado di condizionare o rendere più equo il funzionamento degli algoritmi.
L’extrema ratio della disobbedienza algoritmica è rappresentata, infine, dalla disconnessione. In alcuni casi, lì dove non è possibile ricorrere alle tecniche di offuscamento o alle altre strategie elencate, l’unica soluzione è quella di non interagire affatto con la tecnologia e con i sistemi di regolazione automatica. Sottrarsi alla “tirannia degli algoritmi” significa quindi praticare una sorta di obiezione di coscienza rispetto all’uso della tecnologia: incoraggiare il non uso delle piattaforme, la non produzione e comunicazione dei dati, la non partecipazione ad attività che implichino il contatto con sistemi di decisione automatica.
Un’ultima considerazione si colloca sul piano scientifico ed è connessa al legame che unisce la lotta alle ingiustizie algoritmiche e le nostra capacità di comprendere le implicazioni dei processi di trasformazione tecnologica che attraversano la società. Da questo punto di vista la mia idea è che la critica degli algoritmi ponga sfide fondamentali sul piano della ricerca. Gli approcci e i metodi tradizionali delle scienze sociali sono insufficienti a interpretare le interazioni che hanno luogo tra algoritmi e realtà economica, sociale, giuridica. Serve – lo evidenzia la nascita dei c.d. Critical data and algorithm studies – un vocabolario concettuale e metodologico nuovo che faccia non solo convergere discipline diverse ma consenta anche di sfruttare quanto i dati e le euristiche computazionali possono offrire allo studio della complessità sociale.
Nicola Lettieri, ricercatore presso l’Istituto Nazionale di Analisi delle Politiche Pubbliche, è dottore in Giurisprudenza e dottore di ricerca in Informatica giuridica. Dal 2008 ricopre incarichi di docenza presso le Università di Salerno e del Sannio, tenendo corsi di “Informatica giuridica”, “Diritto e scienze sociali computazionali” e “Modelli e tecniche di intelligenza artificiale per il diritto”. Membro dell’Officina informatica su “Diritto, Etica, Tecnologie” del CRID (Università di Modena e Reggio Emilia), ha svolto attività di ricerca presso l’Istituto di Teorie e Tecniche dell’Informazione Giuridica, il Laboratory of Agent-based Social Simulation (ISTC/CNR); il Laboratorio IsisLAB (Dip. di Informatica – Università di Salerno).