
Da quando ci svegliamo la mattina a quando ci addormentiamo la sera, l’IA è al nostro fianco e ci permette di compiere attività nuove o di gestire meglio attività tradizionali.
Come funziona l’intelligenza artificiale?
Ci sono due approcci principali per le varie tecniche di IA: il ragionamento logico e l’apprendimento automatico. Entrambi permettono di comunicare ad un sistema di IA un problema da risolvere e il modo per risolverlo.
Con il ragionamento simbolico, i ricercatori capiscono come risolvere il problema, individuano un algoritmo (cioè un metodo) per risolverlo, tramite dei passi da effettuare per passare dall’input (cioè il problema) alla sua soluzione, e codificano questo algoritmo in un computer.
Con l’apprendimento automatico, i ricercatori danno alla macchina degli esempi di soluzione del problema, e codificano un algoritmo che permette al computer di apprendere da questi esempi.
Il primo metodo funziona bene per problemi con poca incertezza nell’input e nella loro definizione. Un tipico esempio è l’uso del navigatore satellitare: l’input è il punto in cui siamo, dove vogliamo andare, e le mappe della zona. Il metodo del ragionamento logico permette di codificare un algoritmo che ci assicura di trovare sempre la strada migliore.
Il secondo metodo funziona bene invece per problemi vaghi e con molta incertezza, come l’interpretazione di una immagine, ad esempio per capire se contenga un volto umano. Un volto umano può essere presente in una immagine in un’estrema varietà di modi, e non è possibile elencarli tutti per dare una definizione completa del problema alla macchina, e di come risolverlo.
Il metodo dell’apprendimento automatico fornisce alle macchine tantissimi esempi di soluzione del problema (nell’esempio, sono immagini accompagnate dall’indicazione se contengono un volto o no), e la macchina poi cerca di apprendere e generalizzare da questi esempi, in modo da saper risolvere bene il problema anche con immagini non fornite nell’insieme di esempi.
Questi due approcci sono alla base dei tanti metodi dell’IA, spesso sono combinati tra loro, e permettono di costruire sistemi che funzionano in autonomia o, più spesso, in cooperazione con altri moduli software o con persone.
Quali sono i vantaggi e i limiti dell’intelligenza artificiale?
L’intelligenza artificiale, tramite le sue varie tecniche, e combinando ragionamento logico e apprendimento, permette di risolvere in modo ottimo problemi difficili, in cui ci sono numerose possibili soluzioni, di trovare correlazioni apparentemente nascoste in gradi quantità di dati, di gestire situazioni con molta incertezza tramite un ragionamento probabilistico e statistico, e di aiutare le persone a prendere decisioni più informate. La dipendenza da grandi quantità di dati la rende però vulnerabile a possibili “bias” nei dati, che potrebbero generare decisioni discriminatorie.
Inoltre, ancora l’IA non sa usare il ragionamento di senso comune, che è fondamentale per fare analogie o passare dalla soluzione di un problema a quella di un altro problema senza dovere ricominciare da zero l’apprendimento. È anche limitata nella comprensione del linguaggio naturale, e non sa ancora gestire dialoghi ma solo domande e risposte. Ha anche problemi con la gestione della causalità, molto importante per capire da cosa sono determinate certe decisioni di un sistema di IA.
Infine, le tecniche di apprendimento non sono ancora in grado di apprendere concetti generali ed astrarre, cosa che permetterebbe di apprendere la soluzione di nuovi problemi usando molti meno esempi.
Quali sviluppi possiamo attenderci nel futuro dall’intelligenza artificiale e come cambierà le nostre abitudini?
La comunità scientifica è in crescita molto rapida, e sta lavorando per capire come risolvere gli attuali limiti, relativi ad esempio al ragionamento di senso comune, alla causalità, all’uso di pochi esempi, all’eliminazione di bias, e alla comprensione del linguaggio naturale. Questo viene spesso fatto combinando i due principali approcci, cioè il ragionamento logico e l’apprendimento, che fino a pochi anni fa avanzavano su linee separate.
Nel tempo, l’IA diventerà sempre più presente nella nostra vita, e modificherà ogni lavoro e ogni modalità di interazione tra persone. Dovremo affrontare tali cambiamenti coscientemente e decidere quale visione del futuro vogliamo concretizzare tramite questa tecnologia.
Si raggiungerà mai un’intelligenza artificiale di livello umano?
L’attuale IA, chiamata IA debole, ha già capacità sovra-umane nella soluzione di problemi specifici. Ma per avere l’IA generale, cioè con capacità a livello umano o superiore in tutte le attività, ci sono ancora moltissime sfide scientifiche e tecnologiche da risolvere.
Più che pensare se sia possibile l’IA generale, penso sia importante lavorare per migliorare le capacità dell’IA attuale e allo stesso tempo fare in modo che segua i nostri valori e principi etici.
È possibile dare un’etica alle macchine?
È senz’altro necessario. Molti ricercatori ci stanno lavorando, creando ogni giorno metodi innovativi per inserire nelle macchine principi etici e valori morali adatti allo scenario in cui la macchina si troverà ad operare. Se ad esempio vogliamo creare un sistema di IA che aiuti un medico ad individuare la terapia migliore per un paziente, quel sistema deve conoscere e saper seguire il codice deontologico tipico della professione del medico.
Ma l’etica in AI non si limita a specifiche proprietà o valori da inserire nelle macchine, ma riguarda anche l’uso dell’IA e il comportamento di chi la produce. Trasparenza, responsabilità, gestione dei dati, impatto sulla società e sul lavoro, regolamentazione, sono tutti temi che fanno parte dell’etica dell’IA.
Francesca Rossi è il Global Leader sull’Etica dell’IA dell’IBM. Lavora nell’ambito dell’Intelligenza Artificiale dalla sua tesi di laurea, pubblicando circa 200 tra articoli scientifici in riviste e convegni internazionali, ed è stata professore di informatica presso l’Università di Padova. È un fellow dell’associazione europea dell’IA (EurAI) e di quella internazionale (AAAI), e partecipa a numerose iniziative riguardo l’etica dell’IA, quali il Future of Life Institute, il Leverhulme Centre for the Future of Intelligence, la Partnership on AI, e il Gruppo di esperti di IA della Commissione Europea. È il chair generale del più grande convegno mondiale di IA per il 2020 (AAAI).