Il Business non ammette ignoranza
Hai dubbi sull’investire oggi in Intelligenza Artificiale (AI)?
Pensi che la tecnologia ed il mercato non siano pronti?
Vediamo se i dati possono aiutarci
Partiremo dall’articolo dell’IEEE da cui deriva l’immagine sopra riportata, che a sua volta commenta dei grafici che derivano da un report dell’Università di Stanford.
Commenterò brevemente solo i 4 grafici che rispondono alle domande iniziali, (li referenzierò con la stessa numerazione dell’articolo), ma vi consiglio di leggere i due testi originali.
Grafico 1 – investimenti
Dal grafico 1 si nota che la crescita degli investimenti in AI continua ad essere enorme in tutto il mondo: dal 2020 al 2021 le acquisizioni sono più che triplicate e gli investimenti privati più che raddoppiati, per arrivare ad un totale mondiale di oltre 176 miliardi di dollari.
Grafici a parte, che sia vitale investire in AI dovrebbe essere chiaro anche dal fatto che da poco anche il governo italiano ha lanciato una strategia nazionale per l’AI.
Se:
- gli investimenti mondiali aumentano con la rapidità indicata nell’articolo
- e l’area diventa addirittura strategica a livello nazionale
non sarà il caso di fare lo stesso a livello aziendale?
La scelta, in fondo, è quella di guidare il cambiamento per non essere guidati.
Grafico 4 – la computer vision fatica a crescere ancora
La visione artificiale risulta essere estremamente potente nel riconoscere oggetti nella scena.
MA non altrettanto nel ragionare su quello che vede.
Lo commento con il seguente
Grafico 5 – l’AI non è pronta per la scuola di legge (beh, insomma…)
L’elaborazione del linguaggio naturale (NLP – Natural Language Processing) raggiunge risultati anche superiori all’uomo in task di comprensione e riassunto (approfondimenti in prossimi articoli).
MA non sarebbe altrettanto forte nel ragionare su quanto ha capito (almeno non abbastanza per superare l’esame d’ingresso per entrare a studiare legge in USA e Canada – ma ci torniamo tra poco).
Il problema in entrambi i casi è lo stesso.
Ma perché non ragiona?
Il punto è molto legato alla statistica e al fatto la maggioranza dei progetti attuali in ambito AI utilizzano solo il Machine Learning (ML).
Come insito nel termine stesso, il ML è una tecnologia che nasce principalmente per imparare, non per ragionare.
Ad oggi il ML è una soluzione estremamente potente in task che possiamo considerare il corrispondente dei sensi e dell’intuito umano.
Per ragionare, però, non basta l’apprendimento, servono:
- conoscenze del mondo che vadano ben oltre a quelle dei casi di test: conoscenze che permettano di sapere che se non trattengo un oggetto quello cade perché attratto dalla forza di gravità o di sapere che gli uomini si comportano in un certo modo perché hanno dei bisogni e degli obiettivi
- meccanismi inferenziali: deduzione, abduzione e induzione, ci torneremo un giorno di questi, meritano un articolo a parte
Il ML è un sottoinsieme stretto dell’AI (e, se ve lo state chiedendo perché ne sentite continuamente parlare, il Deep Learning è a sua volta un sottoinsieme stretto del ML).
L’AI comprende molte altre tecniche che permettono di aggiungere, tra l’altro, quanto sopra indicato per ragionare e che, semplificando per i ridotti scopi di questo articolo, potremmo chiamare AI Simbolica.
L’AI Simbolica aggiunge:
- Knowledge Base (KB) più o meno complesse, che vanno da dizionari ad ontologie, vere e proprie rappresentazioni di diverse visioni del mondo
- Altre tecniche, quelle alla base dei meccanismi inferenziali (e qui comprendo impropriamente anche algoritmi di ricerca tipici dell’AI, in grado di lavorare anche con dati incerti)
- Processi in cui esperti umani interagiscono con l’AI per migliorarsi e diventare complementari
Si parla quindi, talvolta di Sistemi ibridi (o di AI neuro-simbolica), per indicare l’insieme di ML+AI Simbolica.
Sto vaneggiando, pure speranze senza riscontri?
Mmmm, no.
Intanto il report di Stanford giustamente segnala la difficoltà delle AI nel raggiungere valori alti nel test ReClor “difficile”, ma omette di evidenziare che la performance umana misurata è stata nel test “facile” del 57,1%, contro il 69,3% della migliore AI del 2021 e nel test “difficile” del 67,2%, contro il 69,3% dell’AI. Ovvero, ok, che il programma capisce così così, ma comunque meglio degli studenti umani medi di riferimento (effettivamente uno studente di Harvard o Stanford ottiene punteggi medi superiori a quelli degli umani di riferimento, ma una significativa parte dell’umanità si deve accontentare di altre Università).
Inoltre si riferisce a dati del 2021, ma già a marzo 2022 possiamo trovare risultati molto migliori in cui, proprio usando un approccio neuro-simbolico, ricercatori di una università cinese sono riusciti a far raggiungere al loro sistema un valore ancora più alto, ovvero del 74,64% sul test difficile di ReClor (e, infatti, il modello citato da Stanford è oggi secondo, mentre il primo è questo modello cinese).
Quindi, in effetti una AI oggi potrebbe riuscire a passare l’esame per studiare legge negli USA (magari non ad Harvard o Stanford).
Tranquilli: su un altro test che richiede comprensione e ragionamento, LogiQA, le AI fanno poco più della metà dei punti di un umano (ad oggi, ma per quanto ancora?).
Sono passati solo pochi mesi e lo studio cinese, insieme a molti altri simili pregressi (come AdaLoGN, sempre cinese o LReasoner di Microsoft), conferma che l’approccio ibrido è la strada oggi da percorrere.
Apprendimento + Ragionamento = Sistemi Ibridi
Grafico 7 – Linguaggio tossico e pregiudizi
Le enormi basi dati richieste per il ML sono prodotte tipicamente dal Web.
Siccome, come ben noto, nel Web troveremo pregiudizi, insulti ed ignoranza a vagonate, i sistemi di ML apprendono anche questi elementi tossici.
Si può cercare di ripulire le basi dati, ma un effetto forse inatteso è che l’apprendimento peggiora (almeno nel senso che diminuisce quella che si chiama perplexity, una delle misure che dicono quanto un modello è capace di prevedere un risultato).
Ora, questo è uno degli argomenti più caldi nella ricerca e c’è forte confidenza che si possa raggiungere una soluzione nel giro di pochi anni.
Ma l’approccio oggi per la soluzione c’è ed è parente di quello del grafico precedente: perché continuare ad usare solo il ML?
L’AI Simbolica, in particolare l’interazione con gli esperti e la conoscenza di uno specifico dominio, aiuta moltissimo nel risolvere anche questa problematica, intanto che la ricerca si adopera per capire come indirizzarla direttamente in fase di apprendimento.
Sistemi ibridi: tecniche diverse per problemi diversi
Conclusioni
E’ abbastanza evidente che l’AI sia strategica anche nel breve periodo (quanto breve possiamo parlarne, ho iniziato a farlo in altro mio articolo sulla Singolarità Tecnologica).
In alcuni casi l’AI ottiene già oggi risultati superiori a quelli umani (e ne parlerò più approfonditamente nel prossimo articolo già programmato).
Gli altri problemi aperti si affrontano utilizzando approcci interdisciplinari e Sistemi Ibridi.
Questo risolve ogni problema?
No, si “limita” a ridurre significativamente i costi, a migliorare i processi ed incrementare il business aziendale.
Cerca di fartelo bastare, per il momento.
Collegati a me per ulteriori approfondimenti sull’AI a supporto delle aziende.
Leave a reply