
Nel 1961 nasce Unimate, il primo robot industriale, utilizzato dalla General Motors in uno stabilimento nel New Jersey. Nel 1963 è la volta della prima applicazione di Machine Learning, la SVM sviluppata dal matematico e statistico sovietico Vladimir Vapnik. Ed è del 1966 il primo robot della storia: Shakey the Robot integrava robotica, computer vision e NLP. Negli stessi anni presso la rinomata Waseda University di Tokyo veniva avviato il progetto WABOT, scaturito nel 1972 nella presentazione di WABOT-1, il primo androide al mondo.
I primi sistemi esperti risalgono agli anni ’80, spostando il focus della ricerca sulla capacità di risolvere problemi grazie a regole dettate dalla conoscenza di un determinato dominio. E poi, con gli anni ’90, si arriva, grazie alla capacità elaborativa finalmente disponibile in grande quantità, al periodo nel quale è l’apprendimento a catturare l’attenzione dei ricercatori. Un periodo segnato dal primo grande successo di una macchina sull’uomo: nel 1997 Deep Blue battere il campione mondiale di scacchi in carica Garry Kasparov.
Compaiono le prime applicazioni pensate per il grande pubblico. Nel 1999 AIBO, un robot che ha le sembianze di un cane, e che è in grado di “crescere” apprendendo dal proprio “padrone”. E nel 2002 nasce Roomba, il primo elettrodomestico robotizzato con un prezzo di acquisto abbordabile.
Ma la ricerca non si ferma e nel 2005 è la volta di Stanley, un mezzo a guida autonoma progettato e costruito dall’Università di Stanford, che vince la DARPA Grand Challenge guidando autonomamente per 131 miglia lungo una pista deserta del deserto.
Qualche anno più tardi, nel 2011, IBM torna alla ribalta con Watson, un sistema che di nuovo sfida l’uomo sul suo terreno. Durante la trasmissione “Jeopardy!”, un quiz dove devono essere “intuite” le domande partendo dalle risposte, Brad Rutter e Ken Jennings devono ammettere la sconfitta. È del 2015 la vittoria di AlphaGo, un software finalizzato al gioco del go e sviluppato da DeepMind, sul campione europeo Fan Hui, e di un paio di anni dopo quella sull’allora campione del mondo, il maestro cinese Ke Jie.
Questa breve carrellata spero aiuti i lettori a individuare il percorso che la ricerca sull’Intelligenza Artificiale ha intrapreso, e come oggi stia guardando allo sviluppo di applicazioni sempre più adatte a realtà industriali e di business. Da un lato, con la ricerca di applicazioni rivolte all’efficientamento delle attività a maggior contenuto operativo, dall’altro con lo studio e lo sviluppo di interfacce uomo-macchina sempre più orientate all’utilizzo del Natural Language Processing. Cercando applicazioni che abbiano scopi estremamente specifici o che possano portare allo sviluppo di un nuovi settori o mercati.
Come funziona l’intelligenza artificiale?
Come abbiamo visto, l’Intelligenza Artificiale è quella scienza che si pone come obiettivo la progettazione e la realizzazione di sistemi in grado di avere comportamenti intelligenti. Ovvero di affrontare e risolvere problemi, gli stessi che si presentano all’uomo, identificandone gli aspetti abilitanti e le proprietà che sviluppate caratterizzano il sistema intelligente.
Questo porta allo sviluppo di agenti intelligenti in grado di svolgere alcune funzioni e attività. Questi sono delineati principalmente in relazione alle modalità di funzionamento, che possono dipendere dalla rilevazione di una condizione corrente percepita, oppure dallo stato interno, a sua volta dipendente dalla sequenza delle situazioni percepite e dalla conoscenza di modelli che descrivano le possibili evoluzione dell’ambiente osservato e gli effetti che l’agente potrebbe avere sull’ambiente con le proprie azioni. O ancora, complementando la conoscenza dell’agente con obiettivi specifici e con la desiderabilità e utilità che scaturirebbe da un certo comportamento dell’agente.
Tali agenti sono di fatto algoritmi che, interpretando grandi moli di dati, pervengono a risultati che possono essere utilizzati dagli esseri umani, o dagli algoritmi stessi, per prendere decisioni o compiere azioni.
In che modo algoritmi e AI stanno trasformando le organizzazioni?
L’evoluzione dei sistemi di business intelligence, da cui prendono le mosse i sistemi che sviluppano intelligenza artificiale, ne sta provocando la sempre più spinta integrazione con i sistemi gestionali. Il che ne rende maggiormente fruibile una eventuale presenza in azienda. La necessità di utilizzo di questi sistemi appare sempre più evidente verificando le differenze prestazionali tra aziende che ne facciano un uso spinto nei confronti di altre meno avvezze alla cultura del dato come asset imprescindibile.
Le aziende che sono in grado di prendere decisioni sulla base dei risultati di un algoritmo applicato ad un certo set di dati hanno una diversa capacità di cogliere opportunità di business che si materializzano molto rapidamente e spesso in forma non pianificabile, e altrettanto rapidamente svaniscono, capacità derivante principalmente dalla maggiore velocità con cui vengono prese decisioni realmente informate.
Alcuni esempi oramai divenuti espressioni “classiche” di questo tipo di realtà sono rappresentati dalla aziende cosiddette “piattaforma”. Uber, Airbnb, Amazon, Google, solo per citarne alcune, sono in grado di cogliere e intercettare un bisogno di un cliente nello stesso momento in cui questo si palesi, un trasporto a New York, un alloggio a Londra, un acquisto “compulsivo” mentre in metropolitana stiamo raggiungendo l’ufficio…
I business di queste imprese sono largamente regolati da algoritmi che prendono decisioni, e compiono azioni, su set di dati consolidati in tempo reale, massimizzando ricavi e profittabilità dell’azienda in tempo reale, compiendo scelte che possono favorire o meno i clienti.
Appare chiaro quindi quale sia lo sforzo che le organizzazioni non guidate da algoritmi si trovino a dover compiere per poter competere con questi nuovi monopoli. Interverranno fenomeni di pesante selezione digitale, e chi non sarà in grado di adattarsi sarà purtroppo costretto a cedere il passo.
Quali ruoli e competenze sono richieste all’AI expert?
La domanda di progettualità legate all’Intelligenza Artificiale sta crescendo per complessità e per ampiezza in tutto il panorama odierno delle imprese.
Le competenze un tempo appannaggio consolidato del Data Scientist richiedono sempre più un grado di approfondimento tale da forzare a scelte di campo significative. E la figura del Data Scientist si sta di fatto concentrando sui temi maggiormente legati alla ricerca “scientifica”. Non a caso uso questo termine che, a mio avviso, è quello che maggiorente caratterizza il presente e il futuro di questa figura professionale. L’applicazione rigorosa del metodo scientifico è necessaria per lo sviluppo di modelli che siano in grado di coniugare la ricerca di una continua capacità competitiva nell’ambito del core business corrente, così come di aprire lo sguardo verso nuove possibilità e nuovi modelli di business. È quindi focalizzata sulla ricerca dell’efficacia di azione e meno di un tempo sull’efficientamento dei modelli una volta giudicati meritevoli di uno scale-up industriale.
Questa componente ha visto consolidarsi nell’ultimo periodo la figura del Data Engineer. Un ruolo fondamentale nello sviluppo fattivo delle roadmap disegnate dal Data Scientist. Si va dalla definizione delle architetture di riferimento per quanto riguarda il data management, alla presa in carico dei modelli sviluppati dal Data Scientist per aumentarne efficienza e scalabilità, fino alla messa in produzione degli algoritmi e conseguente gestione degli stessi dal punto di vista dell’addestramento e del corretto utilizzo dei dati.
A queste figure cardine oggi si sta affiancando il Data Expert, un ruolo importante nel facilitare la comprensione della semantica e dell’organizzazione dei dati, nel validare, se non realizzare materialmente, le query di verifica dei modelli sviluppati dal Data Scientist e di supportare quindi la definizione delle logiche di accesso ai dati.
Chiuderei questa veloce carrellata di ruoli con il citare il Data Scouter. La ricerca di fonti da cui ottenere nuove tipologie di dato, soprattutto in questa epoca di Open Data, è fondamentale per poter sviluppare strategie di data fusion.
Di cosa è fatta la cassetta degli attrezzi dell’AI Expert?
Stiamo parlando di un mondo, quello dell’Intelligenza Artificiale, estremamente complesso e articolato. Gli strumenti utili al governo di questo mondo sono molteplici, e fanno riferimento a diverse categorie che per brevità possiamo così identificare:
- Strumenti funzionali alla gestione degli ambienti nei quali risiedono i dati e nei quali sviluppare algoritmi
- Strumenti legati alla movimentazione dei dati tra i sistemi di produzione e quelli di sviluppo e viceversa
- Framework e linguaggi di sviluppo
- Strumenti legati alla data-visualisation, una disciplina fondamentale nel trasferimento del valore generato grazie ai dati e agli algoritmi
- Strumenti di supporto alla creazione e alla gestione delle community di professionisti, assolutamente funzionali allo sviluppo di vera innovazione
Con riferimento alla prima categoria, gli aspetti che gli strumenti devono aiutare a indirizzare sono quelli votati ad assicurare le necessarie elasticità e flessibilità della capacità computazionale, ovvero consentire l’utilizzo di grandi risorse elaborative quando necessario e liberare le medesime alla fine dei rispettivi processi, così come la capacità di assicurare evoluzione e innovatività, facilitando altresì la fase di ingegnerizzazione e successivo monitoraggio in ambiente di produzione.
La seconda categoria raccoglie quegli strumenti devoti alla gestione dei dati e quindi principalmente ascrivibili alla categoria dei DBMS. Oggi le tipologie di database vanno dai relazionali, molto diffusi, a database cosiddetti documentali, caratterizzati da strutture meno rigide e più adatte a reggere l’impatto delle grandi moli di dati genericamente chiamate Big Data. I database che fanno riferimento a un motore di ricerca sono anch’essi una risposta alla necessità di fronteggiare moli di dati sempre più sfidanti. I data base a grafo sono invece totalmente diversi dai precedenti, lavorando su concetti come nodo e relazione internodale e hanno la capacità di essere molto performanti a fronte di operazioni complesse e non ripetitive.
La terza categoria, quella dei linguaggi di sviluppo, vede fondamentalmente due linguaggi prevalere su tutti gli altri, R e Python, grazie alla facile accessibilità, sono entrambi Open Source, da cui deriva anche la grande disponibilità di librerie a cui attingere. Alcune peculiarità di R derivano dal fatto che alle sue origini c’è un linguaggio di programmazione statistico, da cui la particolare attitudine nel gestire machine learning anche evoluto, mentre Python nasce piuttosto come linguaggio di uso generale, e per questo viene preferito da chi ha un’estrazione tecnica, garantendo anche migliore integrabilità con i sistemi informativi aziendali, spesso molto tradizionali nelle architetture complessive.
La comprensione dei risultati prodotti dai team di Intelligenza Artificiale è un elemento fondamentale per rendere fattiva la produzione di valore e trasformarla in effettivo vantaggio competitivo. Lo è durante la validazione progressiva degli algoritmi, così come nella successiva fase di integrazione con i sistemi che ne faranno uso. Qui la capacità di trasmetterne a utenti e manager i contenuti elettivi può fare la differenza in termini di successiva capacità operativa sul mercato di riferimento.
Ultimi e non ultimi, gli strumenti grazie ai quali è possibile gestire la conoscenza e le relazioni all’interno dei team e fra team che hanno diversi obiettivi ma parte delle medesime organizzazioni. Qui conta la velocità e l’ampiezza di comunicazione, elementi chiave anche per una importante crescita continua di competenze e capacità, senza la qual le organizzazioni rischiano di essere in breve tempo rese obsolete. Lo scambio di informazioni o la ricerca di risultati con community esterne di specialisti è parte integrante di questo processo di continuous learning.
Con l’intelligenza artificiale, quale sarà il futuro del lavoro?
Una domanda alla quale spesso ci troviamo di fronte. La preoccupazione di una Intelligenza Artificiale che sopravanzi quella umana e che di fatto esautori noi umani dal mondo del lavoro. In realtà le applicazioni e i sistemi di Intelligenza Artificiale sono l’espressione di una capacità che le aziende devono avere nella gestione dei propri processi, strutturati al punto da non consentire grande estrazione di valore da quelle che sono invece le capacità elettive della natura umana: generare innovazione, creare, definire le migliori strategie di formazione, garantendo capacità differenzianti rispetto a quelle che nel tempo verranno via via delegate alle Intelligenze Artificiali. La risoluzione di problemi complessi richiede un approccio un approccio olistico e, non può fare riferimento a processi e procedure deterministici, tipiche di una Intelligenza Artificiale, ma piuttosto a non lineari.
L’Intelligenza Artificiale migliora i risultati a fronte di minori costi ed errori, introducendo cambiamenti ineluttabili e la chiave di lettura per noi è quella della complementarietà. Cambiare il nostro modello mentale e fare leva su ciò che è davvero rilevante nel proprio ruolo, concentrando i nostri sforzi su come meglio relazionarsi con gli altri. Così, indipendentemente da quanto l’intelligenza artificiale potrà mai cambiare il contenuto del nostro attuale lavoro, saremo sempre nelle condizioni di avere un ruolo preciso, riconosciuto e di valore.