
L’ipotesi che presento nel libro è che questa differenza non sia una debolezza, ma la radice stessa del successo di queste tecnologie. Il filosofo Hans Blumenberg diceva che gli esseri umani hanno imparato a volare quando hanno abbandonato l’idea di costruire delle macchine che imitino gli uccelli e battano le ali. Nello stesso modo, si potrebbe dire che l’elaborazione digitale delle informazioni è riuscita a raggiungere i risultati che vediamo oggi quando ha abbandonato l’ambizione di riprodurre in forma digitale i processi della mente umana.
È vero che gli algoritmi superano il test di Turing, adottato generalmente come criterio per stabilire se una macchina sia o meno intelligente. Come è noto, il criterio prevede che una macchina superi il test se è capace di comunicare con un essere umano senza che questi si renda conto che il suo partner è una macchina. Questo oggi avviene tutti i giorni, ma se ci pensiamo è un test è molto strano: in effetti non misura l’intelligenza delle macchine ma la loro capacità di fungere da partner di comunicazione competenti e informativi. Il progetto dell’intelligenza artificiale ha condotto a costruire macchine che non hanno imparato a diventare intelligenti, ma a fare un’altra cosa, che gli esseri umani fanno sulla base dell’intelligenza: hanno imparato a partecipare alla comunicazione. Per questo nel libro propongo di parlare di una forma inedita di comunicazione artificiale piuttosto che di intelligenza artificiale.
Perché l’analogia tra le prestazioni degli algoritmi e l’intelligenza umana è fuorviante?
I recenti approcci ai big data sono molto diversi dai programmi della ricerca sull’IA degli anni ’70 e ’80, che ambivano a riprodurre con una macchina i processi dell’intelligenza umana. I programmi di IA “forte” procedevano per imitazione, quelli di IA “debole” per analogia. Oggi non è più così. I processi che guidano gli algoritmi sono ormai completamente diversi dai processi della mente umana, e infatti nessuna mente umana o combinazione di menti umane potrebbe riprodurli e spesso nemmeno capirli. I programmatori dichiarano esplicitamente che il loro scopo non è cercare di copiare l’intelligenza – sarebbe un onere troppo pesante, e non è necessario. Un esempio evidente, e spesso discusso, sono i programmi di traduzione automatica, che oggi funzionano molto bene – da quando i programmatori hanno smesso di cercare di insegnare agli algoritmi le diverse lingue e le loro regole. Oggi gli algoritmi traducono testi dal cinese senza conoscere il cinese, e nemmeno i loro programmatori lo conoscono. Usando machine learning e big data si limitano a trovare dei pattern e delle regolarità in enormi quantità di testi nelle lingue trattate, e li usano per produrre dei testi che risultano sensati – per le persone che li leggono. Non per gli algoritmi, che non li capiscono, come non capiscono niente dei contenuti che trattano, e non ne hanno bisogno. Allo stesso modo i correttori ortografici correggono gli errori tipografici in qualsiasi lingua, senza conoscere queste lingue né le loro regole, gli assistenti digitali come Alexa o Siri parlano con noi senza capire il significato delle parole che pronunciano. I programmatori degli algoritmi che scrivono testi sostengono che le macchine non ragionano come le persone per scrivere come le persone.
In quali aree della vita sociale si è ormai imposto l’utilizzo degli algoritmi?
Gli algoritmi sono già diffusi in molti ambiti sociali. A tutti noi capita spesso di parlare direttamente con degli algoritmi – prenotiamo biglietti del treno, fissiamo appuntamenti e chiediamo informazioni dialogando con dei chatbot. Gli assistenti personali digitali come Siri di Apple, Alexa di Amazon o Google Assistant rispondono alle nostre domande, gestiscono i calendari e ci danno suggerimenti e raccomandazioni. In molti casi, questi programmi sembrano conoscere gli utenti meglio dei loro partner umani, e addirittura meglio degli utenti stessi. Riescono ad esempio a prevedere le nostre esigenze e le nostre richieste ancor prima che queste emergano.
Anche se è difficile fare delle valutazioni precise, si ritiene che i bot siano gli autori di una parte consistente del traffico online. Milioni di utenti di Twitter sono dei bot, la maggior parte degli account falsi su Facebook sono creati da programmi automatizzati, e molte delle revisioni di Wikipedia sono fatte da agenti digitali. Gli algoritmi intervengono anche nella comunicazione personale: su Gmail, ad esempio, Smart Reply riconosce le e-mail che richiedono una reazione e genera al volo delle risposte perfettamente adeguate. La compilation di Spotify, come Discover Weekly e Release Radar, sono assemblate da algoritmi. Gli algoritmi, inoltre, sono in grado di generare dei testi che non si distinguono da quelli scritti da autori umani: articoli di giornale, brochure di prodotti commerciali, manuali e altro ancora. Migliaia di titoli disponibili su Amazon sono stati scritti da macchine, e il cosiddetto robo-giornalismo è regolarmente utilizzato dalle agenzie di stampa e da molte aziende.
Gli algoritmi sono alla base della nuova tendenza verso la medicina di precisione, che promette di fornire cure e trattamenti personalizzati per i singoli pazienti. Molto discusso, poi, è l’utilizzo degli algoritmi nelle aziende per decidere chi assumere o nelle banche per decidere a chi concedere un credito – o addirittura per guidare le operazioni di polizia prevedendo in anticipo le zone delle città o i gruppi di persone in cui è più altro il rischio di crimini.
Che rilevanza assume la previsione nella ricerca sulle forme artificiali di intelligenza?
La previsione è il nuovo orizzonte della ricerca sulle forme artificiali di intelligenza. Già nel 2013 i responsabili di Google hanno dichiarato che la funzione principale dei motori di ricerca non sarebbe stato più rispondere alle nostre richieste, ma piuttosto prevedere di quali informazioni abbiamo bisogno. Molti progetti che in precedenza utilizzavano gli strumenti digitali allo scopo di gestire le informazioni per spiegare i fenomeni, ora si rivolgono alla previsione.
Questa tendenza è legata al fatto che i più recenti algoritmi che utilizzano l’apprendimento automatico (machine learning) lavorano in modi che sempre più frequentemente sono incomprensibili agli esseri umani. Spesso gli stessi programmatori che hanno progettato gli algoritmi non sono in grado di comprendere come le macchine arrivano ai loro risultati. Di fronte alla crescente intrasparenza di algoritmi sempre più efficienti, diversi osservatori cominciano a pensare che le macchine siano incomprensibili innanzitutto perché non c’è niente da comprendere – e non c’è niente da comprendere perché le macchine non comprendono. Gli algoritmi sembrano intelligenti e funzionano come se fossero intelligenti non perché comprendono ma perché sono in grado di prevedere. Ilya Sutskever, ricercatore capo di OpenAI, sostiene che se una macchina disponesse di dati e di potenza di calcolo sufficienti per prevedere alla perfezione, questo equivarrebbe alla capacità di comprendere.
Se l’obbiettivo diventa la previsione, però, le questioni da affrontare cambiano radicalmente: quando si lavora con gli algoritmi non ci si occupa di spiegare ma di prevedere, non di individuare delle relazioni causali ma di trovare delle correlazioni, non di gestire l’incertezza del futuro ma di scoprirne le strutture (i pattern).
Come gestire dunque l’impatto di queste procedure indipendenti dal significato?
Trattando di algoritmi che non sono e non cercano di essere intelligenti, questioni come la paura della singolarità o della ribellione degli algoritmi diventano poco plausibili. La vera sfida delle tecniche di apprendimento automatico e dei big data è piuttosto la mancanza di trasparenza degli algoritmi più avanzati, spesso definita opacità. Se le macchine lavorano in un modo diverso dalla nostra intelligenza e spesso incomprensibile per noi, come possiamo controllare i risultati delle loro operazioni?
Anche se gli algoritmi di autoapprendimento sono molto efficienti, il fatto che siano delle scatole nere non è affatto rassicurante, soprattutto quando sappiamo che le loro operazioni non sono immuni da pregiudizi ed errori di vario tipo. È importantissimo trovare dei modi per verificare la correttezza dei risultati prodotti dagli algoritmi, che possono essere sbagliati o inappropriati in molti modi diversi, con conseguenze differenti. Si parla di overfitting, di cecità algoritmica, di varie forme di bias (bias sistematico, bias di conferma, bias dei dati). Dobbiamo trovare delle procedure per controllare i risultati prodotti dagli algoritmi e il modo in cui sono stati ottenuti. La recente branca di ricerca sulla “intelligenza artificiale spiegabile” (Explainable AI) si occupa di queste questioni e sta producendo risultati estremamente interessanti.
Elena Esposito è professore di Sociologia all’Università di Bologna e all’Università di Bielefeld. Lavora nell’ambito della teoria dei sistemi sociologici, e ha pubblicato molti testi sulla teoria della società, la teoria dei media, la teoria della memoria e la sociologia dei mercati finanziari. La sua attuale ricerca sulla previsione algoritmica è finanziata da un Advanced Grant dello European Research Council.