“Né intelligente né artificiale. Il lato oscuro dell’IA” di Kate Crawford

Né intelligente né artificiale. Il lato oscuro dell’IA, Kate CrawfordNé intelligente né artificiale. Il lato oscuro dell’IA
di Kate Crawford
traduzione di Giovanni Arganese
il Mulino

«Poniamo una domanda apparentemente semplice: cos’è l’intelligenza artificiale? Se dovessimo chiederlo a qualcuno per la strada, potremmo sentirci rispondere: Siri di Apple, il servizio cloud di Amazon, le auto Tesla o l’algoritmo di ricerca di Google. Alla stessa domanda, esperti di deep learning (apprendimento profondo) potrebbero rispondere illustrandoci gli aspetti tecnici delle reti neurali organizzate su decine di livelli che ricevono dati muniti di etichette, ai quali vengono assegnati pesi e soglie e che riescono a classificare i dati in modi che non riusciamo ancora a spiegare del tutto. Nel 1978, discutendo di sistemi esperti, il professor Donald Michie descrisse l’intelligenza artificiale come un raffinamento della conoscenza, dove «si possono produrre un’affidabilità e una competenza di codifica tali da superare di gran lunga il livello più alto che l’esperto umano privo di aiuti abbia mai raggiunto e forse mai raggiungerà». In uno dei manuali più popolari sull’argomento, Stuart Russell e Peter Norvig sostengono che l’IA è il tentativo di comprendere e costruire entità intelligenti. «L’intelligenza è interessata principalmente all’azione razionale», affermano. «Idealmente, un agente intelligente esegue le azioni migliori possibili in una situazione».

Ciascuno dei modi che abbiamo per definire l’intelligenza artificiale funziona stabilendo una cornice entro la quale esso sarà compreso, misurato, valutato e governato. Se l’IA è definita dai produttori di beni di consumo per l’infrastruttura aziendale, l’orizzonte è predeterminato dal marketing e dalla pubblicità. Se i sistemi di IA sono ritenuti più affidabili o razionali di qualsiasi esperto umano, e in grado di intraprendere la «migliore azione possibile», quello che si suggerisce è che dovrebbero essere considerati affidabili per prendere decisioni estremamente rischiose in materia di salute, istruzione e giustizia penale. Quando specifiche tecniche algoritmiche sono l’unico oggetto al centro dell’attenzione, si dà a intendere che conta solo la continuità del progresso tecnico, senza considerare il costo computazionale di tali approcci e il loro impatto profondo su un pianeta sotto pressione.

Al contrario, in questo libro sostengo che l’IA non è artificialeintelligente. Piuttosto, l’intelligenza artificiale è sia incarnata che materiale, composta da risorse naturali, combustibili, lavoro umano, infrastrutture, logistica, storie e classificazioni. I sistemi di IA non sono autonomi o razionali, né in grado di discernere alcunché senza una fase di formazione estensiva ma computazionalmente intensiva con grandi set di dati o regole e ricompense predefinite. In effetti, l’intelligenza artificiale come la conosciamo dipende interamente da un insieme molto più ampio di strutture politiche e sociali. E a causa del capitale necessario per costruire l’IA su larga scala e dei modi per vederla ottimizzata, i sistemi di IA sono in definitiva progettati per servire gli interessi dominanti. In questo senso, l’intelligenza artificiale è un registro del potere.

In questo libro esploreremo come viene prodotta l’intelligenza artificiale, nel senso più ampio del termine, e le forze economiche, politiche, culturali e storiche che la modellano. Una volta collocata l’IA all’interno di queste strutture e di sistemi sociali più ampi, possiamo emanciparci dall’idea che l’intelligenza artificiale sia un dominio puramente tecnico. Fondamentalmente, l’IA è insieme pratiche tecniche e sociali, istituzioni e infrastrutture, politica e cultura. La ragione computazionale e il lavoro incarnato sono profondamente interconnessi: i sistemi di IA riflettono e producono relazioni sociali e comprensioni del mondo.

Vale la pena notare che l’espressione «intelligenza artificiale» può creare disagio nella comunità informatica. Nel corso dei decenni, l’espressione è entrata e uscita di moda ed è usata più nel marketing che dai ricercatori. Nella letteratura tecnica si parla più comunemente di machine learning o apprendimento automatico. Eppure l’etichetta «intelligenza artificiale» è spesso adottata quando è il momento di inoltrare richieste di finanziamento, quando gli investitori di capitale di rischio si fanno avanti con in mano i libretti degli assegni o i ricercatori reclamano l’attenzione della stampa per un nuovo risultato scientifico. Di conseguenza, il termine viene utilizzato o rifiutato in modi che ne mantengono il significato in continuo mutamento. Per i miei scopi, uso l’IA per parlare del vasto e complesso mondo industriale che include politica, lavoro, cultura e capitale. Quando parlo di machine learning mi riferisco a una serie di approcci tecnici (che sono, in effetti, anche sociali e infrastrutturali, sebbene raramente si riconoscono in quanto tali).

Ci sono tuttavia ragioni importanti per cui il settore si è concentrato così tanto su tecnica, scoperte algoritmiche, miglioramenti incrementali del prodotto e maggiore praticità. Le strutture di potere all’intersezione fra tecnologia, capitale e governance traggono vantaggio da questa analisi ristretta e astratta. Per capire come l’IA sia fondamentalmente politica, dobbiamo andare oltre le reti neurali e il riconoscimento di modelli (pattern recognition) per chiederci invece che cosa viene ottimizzato, per chi e chi è che decide. Solo a questo punto potremo descrivere le implicazioni di queste scelte.»

ISCRIVITI ALLA NEWSLETTER
Non perderti le novità!
Mi iscrivo
Niente spam, promesso! Potrai comunque cancellarti in qualsiasi momento.
close-link