Prof. Antonio Rizzo, Lei è autore del libro Ergonomia cognitiva. Dalle origini al design thinking edito dal Mulino: innanzitutto, cosa studia l’ergonomia cognitiva?
Ergonomia cognitiva. Dalle origini al design thinking, Antonio RizzoL’ergonomia cognitiva ha come oggetto di studio il comportamento che emerge dall’interazione dell’uomo con gli strumenti che mediano la sua attività. Attraverso gli strumenti l’uomo abilita forme di comportamento che non potrebbe esibire altrimenti. Si pensi alla storia dell’umanità e a come nel corso del tempo sono cambiati i suoi pattern percettivo-motori evidenti. Gli strumenti materiali (l’abbigliamento, il controllo del fuoco, i mezzi di locomozione, etc.) e concettuali (i numeri, il denaro, le nazioni, etc.) che l’uomo ha ideato e prodotto hanno dato vita sempre a nuove forme di comportamento. Questa modalità di progettazione del comportamento è rimasta implicita per molto tempo. Ovvero, da un lato, l’ingegneria, ma anche l’architettura, hanno progettato forme e funzioni degli oggetti senza esplicitare apertamente, tranne alcune eccezioni, le implicazioni sull’esperienza umana. Dall’altro, buona parte della psicologia e delle scienze sociali hanno pensato di studiare la mente e il comportamento umano senza considerare propriamente il ruolo che svolgono gli artefatti umani nel definire i processi cognitivi e i comportamenti sociali. È giusto aggiungere subito che tali implicazioni sono molto spesso difficili da prevedere e non sono “progettabili’ alla stessa stregua di una funzione o caratteristica di uno strumento, basti pensare alle trasformazioni indotte dal motore a scoppio o dai social network. Ciò non toglie che le scienze umane per lungo tempo non hanno dato peso al pensiero storico-culturale mitteleuropeo di fine ottocento mirabilmente sintetizzato da Friedrich Engels nella seguente affermazione: La scienza naturale, al pari della filosofia, ha finora trascurato completamente l’influenza dell’attività degli uomini sul loro pensiero; entrambe conoscono solo la natura da un lato e il pensiero dall’altro. Ma è proprio l’alterazione della natura da parte dell’uomo, non solo la natura in quanto tale, che è la base più essenziale e immediata del pensiero umano, ed è nella misura in cui l’uomo ha imparato a cambiare la natura che la sua intelligenza è aumentata. E per quanto possa sembrare strano, o perlomeno poco noto, è stata proprio la consapevolezza di questa relazione circolare tra uomo e natura che è alla base di innovazioni quali internet e il personal computer come viene narrato nei capitoli 3 e 4 del testo.

Quale importanza ha acquisito la disciplina con l’avvento delle nuove tecnologie digitali?
Le tecnologie digitali hanno reso palese a chiunque il ruolo degli artefatti nel dare forma al comportamento umano. Specialmente negli ultimi anni abbiamo assistito ad un’accelerazione nella consapevolezza che gli strumenti, in particolare quelli digitali, hanno un potere enorme sul nostro comportamento. Oggi è evidente a chiunque che strumenti quali i social network combinati con algoritmi di apprendimento finalizzati alla creazione di un nostro modello di comportamento possono influenzare non solo scelte d’acquisto bensì anche scelte legate alla politica e alla morale, e questa è solo la punta dell’iceberg. Le tecnologie digitali hanno fatto dell’informazione la fonte di ricchezza che ha sostituito nella scala dei valori l’energia prodotta dei combustibili fossili, i mezzi di produzione e la terra. Per migliaia di anni la terra è stata la fonte di ricchezza primaria, e per essa si lottava e si moriva, poi è stata sostituita dai mezzi di produzione industriale e dall’energia che li alimenta, ora l’informazione le ha relegate a un ruolo comprimario. Per rendersene conto basta osservare come le principali corporation contino più degli stessi stati e come le corporation che operano in ambito digitale siano quelle che dominano il mercato azionario (https://www.youtube.com/watch?v=YeiFMirdToA) . Quello a cui abbiamo assistito con l’introduzione delle tecnologie digitali è un fenomeno decisamente peculiare. All’inizio, negli anni 50 e 60 erano tecnologie principalmente utilizzate per fare calcoli in ambiti ristretti (dalle gittate dei missili ai censimenti della popolazione) per poi diventare negli anni 70 potenti strumenti per alimentare l’automazione nei processi produttivi in ambito industriale, ad esempio tramite i Controllori Logici Programmabili (PLC). Negli anni 80, con l’introduzione del personal computer, sono diventati strumenti per la comunicazione e per sostenere una varietà di attività umane a partire dal lavoro d’ufficio. Ma per riuscire a penetrare nella vita delle persone comuni dovevano superare un difficile ostacolo, ovvero dovevano diventare facili da usare. Questo fece concentrare molta della ricerca degli anni 80 e 90 sul tema dell’usabilità. Ovvero sul rendere queste tecnologie, per loro natura complesse e sofisticate, facili da utilizzare dalle persone senza competenze specifiche in ambito informatico. Questa stessa facilità d’uso che ha permesso a milioni di persone nel mondo di fruire dei benefici delle tecnologie digitali si è poi rivelata un’arma a doppio taglio. Infatti gli stessi principi che hanno guidato l’ergonomia dell’usabilità nel secolo scorso sono oggi utilizzati per puntare al controllo del comportamento delle persone. Principi quali la facilità nell’eseguire un compito, una grafica attraente, la standardizzazione nei modi di operare, un feedback costante e interpretabile delle azioni degli utenti sono diventati alcuni dei principali capisaldi per controllare il comportamento. Un noto modello utilizzato per influenzare il comportamento della gente, denominato EAST, punta proprio su tali fattori: Easy- Facile: se vuoi che le persone facciano qualcosa, rendila facile. Attractive – Attraente: rendi attraente la cosa che vuoi che le persone facciano. Social – Sociale: mostra alle persone che il comportamento che vuoi evocare è normale, comune, standardizzato. Timely – Tempestivo: fornisci feedback positivi immediati ai comportamenti che vuoi incoraggiare. Le tecnologie digitali se da un lato hanno reso palese l’esigenza di una progettazione ergonomica, dall’altro hanno posto l’ergonomia di fronte a temi che non erano minimamente immaginabili quando l’ergonomia nacque.

Quando e come nasce l’ergonomia cognitiva?
L’ergonomia come disciplina scientifica nasce nel corso della seconda guerra mondiale. Sin dalla sua istituzione in Europa come negli Stati Uniti, dove prese il nome di fattori umani, dovette affrontare non solo temi legati all’antropometria, l’ambito per cui è maggiormente nota tra il grande pubblico, bensì temi legati ai processi cognitivi come i processi decisionali, l’attenzione, la percezione, la comunicazione, etc.. Sia in Inghilterra che negli Stati Uniti furono soprattutto psicologi che diedero vita e coordinarono gruppi di ricerca multidisciplinari per affrontare tematiche collegate alle attività dei piloti di aerei o degli uomini radar.

Da questo punto di vista è esemplare il modo un cui fece le prime mosse questo settore negli Stati Uniti. Durante la seconda guerra mondiale, l’aeronautica statunitense perse centinaia di aerei in incidenti attribuiti ad “errori umani”. In particolare uno degli aerei considerati il fiore all’occhiello della flotta aerea, i Boeing B-17 denominati le Fortezze Volanti, presentavano una criticità negli atterraggi di fortuna. Gli aerei non sembravano avere problemi di sorta e tutti i piloti coinvolti negli incidenti erano considerati altamente competenti e addestrati, ma nonostante ciò commettevano errori che spesso non riuscivano a recuperare. Nel 1942 fu reclutato presso il Laboratorio Medico Aeronautico il primo psicologo, Alphonse Chapanis, fresco di Laurea all’Università di Yale. Chapanis notò che nella cabina di pilotaggio dell’aereo i controlli dei flap e del carrello di atterraggio erano identici ed erano co-locati e funzionavano in sequenza. In un atterraggio d’emergenza, in condizioni stressanti ad alto carico di lavoro mentale, i piloti spesso ritraevano il carrello al posto dei flap. Questo non accadeva quasi mai ai piloti di altri tipi di aerei. Chapanis fissò una piccola ruota di gomma sulla leva del carrello di atterraggio e un piccolo cuneo sulla leva dei flap. In seguito i comandi furono distanziati ed introdotte altre misure per poter permettere ai piloti una corretta interazione con i comandi.

Qualche anno dopo, nel 1947, gli psicologi sperimentali Paul Fitts e Richard Jones analizzarono i resoconti di più di 450 errori commessi dai piloti di aerei. Essi notarono che era “consuetudine presumere che la prevenzione degli incidenti dovuti a guasti materiali o cattiva manutenzione sia di competenza del personale ingegneristico e che gli incidenti dovuti a errori dei piloti o del personale di supervisione siano di competenza di coloro che si occupano della selezione, dell’addestramento e delle operazioni”. Fitts e Jones misero in discussione questo assunto e sostennero apertamente che “moltissimi incidenti derivano direttamente dal modo in cui l’attrezzatura è progettata e dal luogo in cui è collocata nella cabina di pilotaggio”. Quello che era stato chiamato “errore umano” era in realtà un disallineamento tra le caratteristiche del “mondo progettato” e le caratteristiche degli esseri umani, e tra il lavoro come immaginato e il lavoro come realmente svolto.

Questi ed altri studi condotti sempre in ambito militare in quegli anni misero a fuoco il “fatto ovvio” che le prestazioni umane non possono essere separate dalla progettazione dei compiti, delle attrezzature e degli ambienti di lavoro. In particolare negli ambienti a sicurezza critica non possiamo semplicemente addestrare e supervisionare le prestazioni umane. Dobbiamo progettare con cura le interazioni, poiché queste costituiscono il fulcro della resilienza dei sistemi. Purtroppo questi insegnamenti, dopo la fine del conflitto bellico, non si trasferirono immediatamente al mondo industriale civile. Quello che arrivò fu una presunta attenzione alla salute dei lavoratori, e l’ergonomia fu principalmente influenzata dalla medicina. Basti pensare che quando fu introdotto il computer negli uffici il tema principale a cui si prestava attenzione in ambito ergonomico era “La salute ai Videoterminali”. L’attenzione era rivolta all’affaticamento visivo, ai disturbi muscolo-scheletrici dovuti alla postura, o al problema del tunnel carpale. Tutto questo trascurando il ruolo cruciale che il computer come artefatto cognitivo stava giocando nella nostra società e nei nostri processi di pensiero, e nonostante tale ruolo fosse stato ampiamente anticipato da chi aveva contribuito alla sua progettazione e diffusione.

Quali sono i processi psicologici umani che sottendono alla produzione e all’uso degli strumenti?
La specie umana non è la sola specie a creare ed utilizzare artefatti. Numerose altre specie, tra le quali polipi, corvi, scoiattoli e ovviamente gli altri primati manifestano spesso soluzioni creative a problemi posti dal loro ambiente o artificiosamente creati per loro dall’uomo. Inoltre questa stesse specie esibiscono la capacità di apprendere l’uno dall’altro attraverso sia emulazione che imitazione, eppure in nessuna di queste specie è presente un processo di consolidamento delle soluzioni inventate ed un processo di evoluzione culturale. Per spiegare ciò net testo viene proposto un framework concettuale, basato sul lavoro di John Searle sulla natura degli artefatti istituzionali, che identifica in quattro i fenomeni cognitivi che sottostanno alla creazione ed uso degli strumenti da parte dell’uomo. Di questi solo uno è condiviso con le altre specie viventi, gli altri 3 fenomeni sarebbero peculiarmente umani.

Il primo fenomeno è l’attribuzione di funzioni. Samuel Butler, un pensatore a cavallo del XIX e XX Secolo fu tra i primi a cogliere questo aspetto sulla natura degli artefatti, quando affermò “In senso stretto, nulla è uno strumento se non durante l’uso. L’essenza di uno strumento, quindi, risiede in qualcosa al di fuori dello strumento stesso”. Ad esempio, l’acqua può diventare uno strumento quando uno scimpanzé la usa per spingere verso l’alto una nocciolina galleggiante in un tubo fissato al suolo, e troppo stretto per poter permettere di accedere al suo contenuto con le dita. O un sasso e un ramo possono diventare una leva per sollevare un peso, o un guscio di tartaruga può divenire un efficace rifugio. Uno strumento è quindi una parte del mondo che acquisisce significato attraverso l’attribuzione di funzione che riceve da parte di un agente al fine di trasformare o modificare, la sua relazione con l’ambiente. Noi umani e molte altre specie siamo in grado di fare ciò. Questo è il solo fenomeno condiviso con le altre specie.

Il secondo fenomeno abilitante gli artefatti umani è l’intenzionalità condivisa. Esiste crescente evidenza sperimentale che la specie umana oltre ad essere dotata dell’intenzionalità individuale, ovvero della capacità di creare rappresentazioni del proprio mondo, di sé nel mondo e di simulare e fare inferenze che coinvolgono queste rappresentazioni, così come possono fare gli altri primati, è dotato di intenzionalità condivisa. Tale intenzionalità ci permetterebbe di relazionarci con il mondo sulla base di intenzioni che prendono la forma del «noi» al posto dell’«io»: noi facciamo questo, noi vogliamo quello, noi vediamo questo, ecc. Grazie all’infrastruttura cognitiva dell’intenzionalità condivisa è emersa una speciale forma di intenzioni, le intenzioni comunicative. Un’intenzione comunicativa è rivolta agli stati intenzionali e attentivi di un consimile e contemporaneamente a parti del mondo esterno, tale intenzione è quindi caratterizzata da un’interazione triadica tra chi produce l’atto comunicativo, l’individuo a cui è rivolto, e la parte del mondo implicata nella comunicazione. L’interazione triadica vale per entrambi i soggetti coinvolti nella comunicazione intenzionale ed è alla base della capacità di creare stati di attenzione congiunta. Ovvero il fatto che due persone abbiano esperienza dello stesso evento sapendo entrambi che stanno vivendo ciò. I primati al di fuori dell’uomo non sembrano essere in grado di produrre e comprendere interazioni triadiche ma si muovono sempre su un piano di interazioni diadiche, esisto io e l’oggetto della mia interazione, esiste l’altro e l’oggetto della sua interazione. Provate ad indicare con qualunque mezzo ad un qualsiasi animale in gabbia in uno zoo la presenza di cibo nelle sue vicinanze, rimarrete delusi. Non è che non capisca che voi siete interessati ad una parte del mondo lontana voi, lui non comprende che questo interesse possa in qualche modo coinvolgerlo. Questo nonostante l’alternanza dei vostri sguardi, e quindi del vostro interesse, tra lui e questa parte del mondo distante da entrambi. Secondo Tomasello, il principale sostenitore di tale ipotesi, alla base della peculiare abilità di cooperare degli uomini ci sarebbe proprio l’intenzionalità condivisa e tra le sue modalità più evidenti vi sarebbero le intenzioni comunicative. Queste particolari intenzioni sono comprese da qualche rara specie do noi a lungo selezionata, quali i cani, ma ad oggi non esiste evidenza empirica convincente che documenti che altre specie sappiano produrre intenzioni comunicative per coordinare il loro comportamento. La pulsione all’intenzionalità condivisa, che negli umani sorge intorno al 18 mese di vita, avrebbe come primo grande effetto quello di permettere di prestare attenzione a parti del mondo, a gesti, a situazioni nuove e insolite per il semplice motivo che farebbero parte dell’attività congiunta, del “noi”, evocate dai consimili che si prendono cura di noi. Da ciò emergerebbero tanti fenomeni interessanti tra cui i due seguenti.

Il terzo fenomeno è l’attribuzione di funzioni di stato. L’uomo è l’unica specie in grado di attribuire funzioni a parti della realtà che possono essere svolte non solo in virtù delle componenti fisiche, chimiche o biologiche sottostanti ma che richiedono una cooperazione umana continuativa, nelle forme specifiche del riconoscimento e dell’accettazione di un nuovo status, al quale è connessa tale funzione. Ad esempio un certo tipo di pezzo di carta può divenire una banconota da dieci dollari. Questo fatto sussiste solo se al tipo di pezzo di carta in questione viene assegnato, per intenzionalità condivisa, lo status di banconota da dieci dollari. Uno status cui si accompagna l’insieme di ciò che si può fare con una banconota da dieci dollari, in quanto banconota da dieci dollari. Funzioni queste, è bene sottolineare, che il pezzo di carta non è in grado di adempiere solo in virtù della sua costituzione fisica, bensì in virtù dell’accettazione collettiva del fatto che esso abbia lo status di banconota da dieci dollari. Lo stesso vale per gli stati, i titoli nobiliari, le società per azioni, etc., di fatto tutte le istituzioni hanno una realtà sociale basata sull’attribuzione di funzioni di stato. Grazie a ciò, noi umani viviamo in una doppia realtà. Da un lato, la realtà oggettiva, indipendente dai nostri stati mentali, dei fiumi, degli alberi degli altri animali; dall’altro, la realtà immaginata degli dei, delle nazioni, dei partiti politici e delle corporazioni. Il potere di questi artefatti istituzionali è tale che, come ha fatto notare Yuval Harari, con il passare del tempo, la realtà immaginata è diventata sempre più potente, tanto che oggi la sopravvivenza stessa dei fiumi, degli alberi e delle altre specie dipende dalla grazia di entità immaginate come gli Stati Uniti, la Cina, Google e Baidu.

L’ultimo fenomeno peculiarmente umano è l’evoluzione culturale cumulativa. L’evoluzione culturale si riferisce a situazioni in cui i comportamenti di una popolazione si modificano nel tempo come conseguenza della trasmissione sociale. Ciò può essere dovuto sia ai contributi dei singoli processi di apprendimento, sia agli errori di trasmissione, sia a entrambi. Così definita, l’evoluzione culturale è stata dimostrata in modo convincente in varie specie (ad esempio il canto degli uccelli, i dialetti vocali nei cetacei). Se però prendiamo in considerazione gli artefatti materiali dobbiamo riconoscere che le altre specie, tra cui i primati non umani, sono da decine se non centinaia di migliaia di anni fermi all’età della pietra. I loro artefatti non si sono mai evoluti. Ci troviamo quindi di fronte ad un processo, quello della trasformazione cumulativa degli oggetti, che è radicato nel processo dell’intenzionalità condivisa ed ha natura sociale, anche se poi può realizzarsi attraverso un processo individuale. Alla base di tale fenomeno ci sarebbe l’evoluzione di una forma di comportamento cooperativo che funziona per promuovere l’apprendimento negli altri, un fenomeno che è poi sfociato in attività deliberate quali l’insegnamento. Un aspetto interessante del processo cumulativo di funzioni, sostenuto anche da evidenza empirica sperimentale, è che il miglioramento dell’artefatto può realizzarsi senza che chi contribuisce abbia una comprensione completa delle funzioni causali in essere. Ovvero l’intelligenza necessaria all’innovazione non è una questione individuale bensì socio-culturale.

Infine vale la pena notare che esiste un’attività peculiarmente umana, il gioco di finzione, che racchiude i quattro fenomeni di cui sopra e che caratterizza lo sviluppo ontogenetico di qualunque individuo della specie umana che ha l’opportunità di crescere in un contesto sociale. Nell’ultimo capitolo del libro sono riportate alcune delle evidenze sperimentali a sostegno della tesi esposta e che permettono di dare un significato più pregnante ad ognuno dei quattro fenomeni qui succintamente ricordati compreso il gioco di finzione e i suo collegamento al Design Thinking.

Come funzionano il design thinking e lo human-centered design?
Sono i due lati della stessa medaglia. Lo HCD è un processo di design che nasce principalmente dal lavoro svolto presso il Palo Alto Research Center della Xerox tra la fine degli anni ‘70 e l’inizio degli anni ‘80 e inizialmente battezzato user-centered design. Ha a suo fondamento l’idea che si stanno progettando strumenti e servizi per chi effettivamente li andrà ad utilizzare, ed è caratterizzato da un approccio creativo alle sfide del design, da sperimentazione e iterazione delle diverse fasi che lo compongono. Lo user-centered design è stato successivamente influenzato dal Participatory Design scandinavo e dal framework progettuale del Double Diamond nato nell’ambito del disegno industriale e reso popolare dal British Design Council nel 2005. Questo percorso ha portato al processo di design noto oggi come Human-Centered Design formalizzato nelle norme ISO 9241-210 aggiornate nel 2019. Il processo di design centrato sull’uomo è però solo un lato del modo in cui l’innovazione sta procedendo nel terzo millennio. Grazie soprattutto al lavoro della d.school della Stanford University e della società di consulenza IDEO co-fondata da David Kelley, questo processo è stato affiancato da un insieme di atteggiamenti mentali (mindsets) che costituiscono il cuore del Design Thinking.

Il processo e i metodi dello Human Centered Design potrebbero non essere sufficienti per realizzare gli obiettivi di questa modalità di progettazione che mette l’uomo e il suo futuro al centro del processo di progettazione. Potrebbero addirittura risultare strumentali a fini opposti. In altre parole sebbene lo HCD e i sui metodi, ad esempio le interviste contestuali, la creazione di personas, la definizione dello user journey, la prototipazione, i test etc,, siano delle componenti fondamentali al fine di mettere l’uomo al centro del processo di progettazione, senza i mindset del Design Thinking potrebbero divenire la facciata dietro la quale ci si nasconde. I mindset del DT forniscono il giusto atteggiamento da adottare nelle diverse fasi del processo di progettazione, a partire dalla definizione del Brief di Design sino alla valutazione dei prototipi per operare nell’interesse delle persone che utilizzeranno i prodotti e servizi ideati, della loro fattibilità tecnologica e della loro sostenibilità economica e possibilmente ecologica. Nel testo vengono presentati gli atteggiamenti mentali del Design Thinking e per la prima volta oltre ad essere esposti attraverso le parole dei loro promotori, d.school e IDEO, vengono presentate le basi cognitive di tali mindset, così da poter permettere da un lato una loro migliore appropriazione e dall’altro di poter discutere e far evolvere tali mindset non solo in base alla sola esperienza empirica bensì anche considerando i fondamenti psicologici che li informano.

Cosa stabiliscono i principi operativi del cognitive design?
Il principio fondante del cognitive design, spesso purtroppo trascurato o addirittura omesso è la crescita delle abilità umane. Questo modo di pensare alla tecnologia e alla sua progettazione nasce dal lavoro visionario di persone quali Vannevar Bush, Joseph Carl Licklider, Doug Engelbart, per tutti loro l’obiettivo principale dei loro framework teorici e delle loro realizzazioni era estendere l’intelletto umano. Chi adotta questo approccio dovrebbe avere a cuore in primo luogo la qualità dell’esperienza umana, in tutto gli ambiti applicativi, partendo ovviamente da quelli legati alla conoscenza, da cui tutto è nato, sino a quelli dell’intrattenimento passando per la salute e il lavoro. Spesso si pensa e si promuove l’idea che le tecnologie, gli strumenti siano neutri, ma questo purtroppo è solo una pia illusione o peggio mancanza di conoscenza. Gli artefatti non sono neutrali; essi offrono l’accesso ad una realtà a spese di altre, un punto di vista tra tanti, un possibile sistema di categorie tra tanti altri possibili. Ogni tecnologia offre le proprie opportunità di azione e i propri costi, che rendono più facile fare alcune attività e più difficile farne altre. L’effetto principale è che le attività più facili vengono svolte e quelle più difficili vengono trascurate. Più la tecnologia ha successo e si diffonde, maggiore è il suo impatto sui modelli di pensiero di coloro che la utilizzano, e di conseguenza, maggiore è il suo impatto su tutta la società. La tecnologia non è neutrale; essa domina il processo di generazione dei modelli concettuali e delle nostre aspirazioni anche in ambiti così ancestrali come il sesso o il cibo.

Detto questo, sono stati proposti vari insiemi di principi per sostenere nel dettaglio la progettazione dell’interazione, tra questi quelli promossi da Don Norman sono ancora tra i più operativi e trasversali applicandosi sia ad artefatti analogici che digitali, e ovviamente ai loro ibridi. Sono sei e prendono il nome di affordances, signifiers, conceptual model, system image, discoverablity, e feedback. Sebbene abbiano una loro propria identità questi principi sono tra loro interdipendenti, l’abilità nella progettazione è di orchestrali in modo che si sostengano a vicenda. Quando applicati e funzionanti rendono l’interazione fluida e le persone si possono concentrare sugli obiettivi che vogliono perseguire utilizzando i mezzi e i servizi messi a disposizione. Come conseguenza di ciò le interfacce per svolgere i relativi compiti diventano invisibili alla nostra coscienza. Quando invece la nostra attenzione è costretta a passare dagli obiettivi che vogliamo perseguire agli strumenti e al loro modo di adoperarli abbiamo un breakdown nell’interazione e la violazione dei principi diviene evidente. Come nei classici esempi qui di seguito riportati, il primo legato alle affordance il secondo al feedback

Quali sfide si prospettano nel prossimo futuro per questo settore?
Le sfide più importanti riguardano l’internet degli oggetti e l’apprendimento automatico. Le innovazioni legate a questi ambiti modificheranno il nostro ambiente, i nostri comportamenti e con ogni probabilità le nostre stesse caratteristiche di esseri umani in modo profondo. Il mondo negli ultimi settanta anni è stato modificato da noi umani più di quanto noi stessi abbiamo fatto nei precedenti diecimila anni. Questo trend nell’accelerazione dei cambiamenti è destinato ad accentuarsi. Sia la progettazione dell’Internet degli Oggetti che l’Apprendimento Automatico, che costituisce la frontiera più rilevante dell’intelligenza artificiale, ci pongono di fronte a nuove sfide e nuove opportunità.

L’Internet degli oggetti (IoT) rappresenta la nuova fase della rivoluzione di Internet. Sebbene l’internet degli oggetti sia un’innovazione relativamente recente, il suo concetto può essere fatto risalire ai primi anni ’80. Nel 1982, alcuni studenti di computer science della Carnegie Mellon University collegarono a Internet un distributore automatico di Coca Cola. Poi utilizzarono i dati che arrivavano dal distributore per sviluppare un’applicazione che controllava la disponibilità delle lattine nel dispenser e la temperatura delle bevande. L’internet degli oggetti fu ufficialmente riconosciuta come una tecnologia distinta solo dopo quasi due decenni nel 1999, nel frattempo prese vari nomi come quello di tecnologie anfibie, ovvero di soluzioni tecnologiche capaci di integrare senza soluzione di continuità componenti analogiche e digitali. Con questo nome ci fu presentata tale tecnologia a metà degli anni 90 quando con i miei studenti partecipammo all’ Apple Design Project, un’iniziativa orientata a diffondere lo User-Centered Design in ambito accademico. Negli anni successivi, l’internet degli oggetti fu utilizzata principalmente nei sistemi embedded e nei sistemi micro-elettromeccanici.

L’internet degli oggetti può essere considerata come una gigantesca rete di dispositivi collegati che raccolgono dati e li condividono tra loro e con noi. Le soluzioni basate sull’internet degli oggetti consentono l’automazione delle attività quotidiane e permettono un monitoraggio e un controllo efficace dei dispositivi collegati. Ciò si traduce in una maggiore efficienza e convenienza nell’esecuzione dei compiti. Il concetto dietro l’IoT è semplice, ma le implicazioni sono enormi.

La tecnologia sta conducendo un cambiamento rivoluzionario nei settori della sanità, della produzione di beni, della vendita al dettaglio, della produzione di energia e dell’agricoltura.

Molte aziende stanno adottando l’internet degli oggetti per ottenere un vantaggio competitivo. Si stanno concentrando sulle opportunità offerte dalla gestione dei dati in tempo reale e l’automazione dei compiti. Questo li autorizza ad adottare un approccio più innovativo per crescere e sviluppare il loro business. Ad esempio una delle trasformazioni più evidenti riguarda il passaggio dalla vendita di prodotti alla vendita di servizi. Automobili, mezzi di trasporto in genere, elettrodomestici, etc., saranno sempre più progettati per vendere un servizio che per essere comprati. E i servizi saranno sempre più integrati tra loro per offrire esperienze che non abbiano soluzione di continuità. Prendete la sanità, con gli strumenti per la rilevazione di parametri quali, la temperatura, la pressione, il peso, etc. che vengono condivisi e aggregati si potrà gestire la salute delle persone in modo completamente nuovo ed efficiente, facendo cooperare pazienti, medici di base, specialisti, strutture ospedaliere pubbliche e private. Un piccolissimo esempio è fornito da una ditta che produce termometri connessi e fornisce in tempo reale mappe sulla probabile diffusione del COVID-19 in base ai dati raccolti da ogni singolo termometro utilizzato per uso privato o pubblico: https://healthweather.us/

E questo ci porta alla seconda sfida, l’apprendimento automatico. Questo rappresenta un cambiamento di paradigma cruciale nella programmazione di una buona parte, se non tutte, delle soluzioni basate sulle tecnologie digitali.

Nella programmazione tradizionale siamo abituati a creare applicazioni scomponendo i requisiti in problemi modulari basati su dati e regole che possono poi essere codificati in programmi per ottenere le risposte desiderate (vedi figura).

Le regole e i dati sono usati come input, le risposte rappresentano gli output. Le regole sono espresse in un linguaggio di programmazione e i dati possono provenire da una varietà di fonti, dalle variabili locali fino ai database. L’apprendimento automatico riorganizza questo diagramma. Si parte delle risposte e dai dati come input e dalla loro associazione attraverso degli algoritmi di apprendimento si ottengono le regole come output.

L’identificazione/produzione dei dati e le loro relazioni con le risposte diventano fondamentali per il successo delle soluzioni ideate. Nell’apprendimento automatico (Machine Learning, ML) le regole che governeranno i sistemi sono fuori dal nostro diretto controllo e sono inferite dal processo di ML. Questo semplice fatto ha un grande impatto per l’intero processo di progettazione dei sistemi interattivi.

L’apprendimento automatico cambia il modo in cui pensiamo a un problema di progettazione. Nell’attuale pratica progettuale, il team di progettazione coinvolge interaction designer, ingegneri del software, grafici, ecc. ed è addestrato a definire logicamente i requisiti dell’utente e del sistema, cercando di risolvere i relativi problemi. Con il Machine Learning l’attenzione si sposta verso le scienze naturali: facciamo osservazioni su un mondo incerto, facciamo esperimenti e, utilizziamo le statistiche. L’identificazione del tipo di dati da utilizzare, del tipo di caratteristiche da selezionare o creare, del tipo di risposta da produrre definisce un terreno di gioco che può cambiare la natura del problema stesso. Attraverso questa nuova modalità di programmazione è possibile affrontare problemi che non erano aggredibili attraverso la programmazione tradizionale, quali ad esempio la guida autonoma, il riconoscimento delle emozioni o del parlato, la traduzione da una lingua ad un’altra in tempo reale, la manutenzione predittiva degli apparati, etc. Gli orizzonti che si aprono sono infiniti. A fronte di queste opportunità esiste la sfida per i progettisti di rimuovere l’opacità dalla scatola nera e trovare il modo di rendere comprensibile agli esseri umani la complessità della “cognizione delle macchine”. Diviene così sempre più importante progettare l’interazione con l’uomo e permettere una sinergia dinamica per evitare i danni di una nuova ondata di automazione selvaggia come avvenne negli anni 70 del secolo scorso e oggi minacciata da episodi come gli incidenti ai due Boeing 737 Max occorsi tra la fine del 2019 e l’inizio del 2020. Incidenti dovuti alla impermeabilità dei comandi da parte dei piloti di fronte ad un palese problema dl sistema automatico. Anche per questo vale la pena narrare, come fatto nel testo dei capitoli iniziali, come mai si sia messo in discussione un modo di progettare prettamente ingegneristico centrato sulle funzioni per adottarne uno centrato sulle persone e sulle loro interazioni con gli strumenti.

Antonio Rizzo insegna Scienze e tecnologie cognitive e Design dell’interazione nel Dipartimento di Scienze sociali, politiche e cognitive dell’Università di Siena, e Industrial Internet-of-Things and Design Thinking nel Dipartimento di Electrical and Systems Engineering della Washington University, Saint Louis (USA).

NON PERDERTI LE NOVITÀ!
Iscriviti alla newsletter
Iscriviti
Niente spam, promesso! Potrai comunque cancellarti in qualsiasi momento.
close-link