Due approcci a confronto
Thinking is manipulation of symbols and Reasoning is computation.
Thomas Hobbes
I sistemi di AI simbolica sono stati alla base della ricerca sull’intelligenza artificiale dagli anni 50 fino alla fine degli anni 80, quando le nuove tecniche basate sulle reti neurali hanno conquistato la piazza. Le reti neurali e il machine learning, ovvero l’approccio statistico, hanno quindi affiancato l’AI simbolica fino ad oggi, guadagnando visibilità e potenziale grazie all’aumento del potere computazionale di CPU, RAM e device.
I nuovi sistemi di AI generativa hanno dimostrato in modo chiaro e inequivocabile il potenziale dell’AI statistica affiancata a grande potenza computazionale, ma l’accesso a questi tool da parte del grande pubblico ne ha sottolineato anche i limiti e i rischi.
Entrambi gli approcci si possono definire Intelligenza Artificiale, ovvero metodi e strategie che rendono la macchina in grado di emulare le capacità tipiche dell’intelletto umano. Perché quindi i due approcci sono così differenti?
Symbolic AI
L’AI simbolica si prefigge di simulare la capacità decisionale dell’essere umano definendo in modo esplicito le regole che l’umano segue per raggiungere un risultato, a partire da simboli. I simboli sono un elemento percettibile che da solo è in grado di rappresentarne altri. Ad esempio, la parola computer è un simbolo per rappresentare quel device munito di SPU e RAM, collegato a duna fonte di energia, che è in grado di elaborare calcoli.
Nel concreto, l’approccio dell’AI simbolica è knowledge driven, quindi basato sulla competenza umana. I sistemi esperti sono un perfetto esempio di questo approccio, blocchi di if-else in grado di portare a decisioni corrette in base da presupposti definiti.
L’AI simbolica è trasparente, una white-box in cui le regole sono chiare e interpretabili. Possono essere costruite su pochi dati e portare comunque a buoni risultati. Il problema è che molti processi sono difficili da sintetizzare con regole chiare. Cosa fare in quei casi?
Statistical AI
L’AI statistica non parte dalla competenza umana ma dall’esperienza, che fornisce ai sistemi di AI tutto quello che serve loro per imparare a replicare capacità tipiche dell’intelletto umano. Il machine learning e tutte le sue sotto categorie sono l’esempio perfetto di AI statistica, in grado di riconoscere e replicare pattern nei dati, senza però comprenderne il significato sottostante – non che l’AI simbolica lo faccia.
Il potenziale dell’AI statistica è immenso, e lo stiamo vedendo in questi anni. In questo caso, l’algoritmo è opaco, una black-box che l’essere umano non comprende. Inoltre, ‘lAI statistica necessita di tantissimi dati per imparare a fare previsioni e valutazioni. E qualche volta impara in modo errato dai dati, con tutte le conseguenze del caso.
Chi è meglio?
Questa domanda è fuorviante. Come sempre, la risposta dipende dall’applicazione, quel che è certo è che si vuole usare un sistema come GPT-4 per far di calcolo è meglio desistere. I sistemi di AI statistica infatti sono bravi ad elaborare grandi quantità di dati e a rappresentare in modo realistico ( attenzione, realistico e non reale) i pattern tipici di un set di dati a partire da un input. I sistemi di AI simbolica invece sono legati alla competenza di dominio e riescono a dare risposte tecniche corrette a partire dal contesto, perché queste risposte sono cablate al contesto a partire dall’esperienza di dominio.
La seguente tabella è estrapolata da uno speech di Jon McLoone, Director of Technical Communication and Strategy di Wolfram, durante l’AI & Big Data Expo 2023 ad Amsterdam, e mostra il confronto tra i due approcci di AI.
Task | Symbolic AI | Statistical AI |
---|---|---|
Pensiero Logico e domain-driven | ✅ | ❌ |
Affidabilità certa nel risultato | ✅ | ❌ |
Seguire regole esplicite e complesse di ragionamento | ✅ | ❌ |
Pochi dati definiti | ✅ | ❌ |
Alto numero di input | ❌ | ✅ |
Interazione human-like | ❌ | ✅ |
Dati non strutturati | ❌ | ✅ |
Campi poco definiti e difficili da descrivere in modo esplicito | ❌ | ✅ |
Come si nota, i sistemi sono complementari, e coprono necessità diverse.
Fenomenali poteri cosmici
I sistemi di statistical AI hanno permesso alle macchine di passare il test di turing, cosa che i sistemi di AI simbolica non hanno mai passato, e che forse alla luce dei nuovi sviluppi dovrà essere aggiornato. Però sappiamo che questi sistemi sono studiati per dare risposte convincenti e complete, ma non sempre affidabili. Il sistema è allenato per rispondere con cose che suonano bene, senza curarsi se quello che sta condividendo sia vero o meno. Potete immaginare il problema se tale sistema viene utilizzato per interpretare dati industriali o scrivere testi tecnici.
Per contro i sistemi si AI simbolica, come i sistemi esperti, sono molto solidi e affidabili, ma peccano di flessibilità nel rappresentare situazioni particolare o di interagire con l’uomo in linguaggio naturale. Posso allora sfruttare i lati positivi di uno e dell’altro approccio per arrivare ad un sistema di AI reliable, trustworthy, explainable, ovvero affidabile, rappresentativo e spiegabile?
L’intuizione e la spiegazione
L’AI simbolica è utile perché è certa: si basa sulla competenza di dominio di chi l’ha scritta, e porta a risultati reali ed affidabili. Pecca però di flessibilità: se non era stata prevista la risposta ad uno specifico fenomeno, non c’è modo di estrapolare o interpolare la risposta.
L’AI statistica invece è molto più flessibile, impara autonomamente dai dati e viene allenata per rispondere in modo realistico e probabile a determinate domande, che siano di calcolo (ad esempio, quanto dovrebbe consumare un asset a determinate condizioni) o di interazione (ad esempio, la risposta ad una domanda più o meno complessa. Però, niente garantisce che la risposta dell’AI statistica sia esattamente quello che ci aspettiamo.
Se vogliamo calcolare il consumo del famoso chiller, e scriviamo l’equazione in modo esplicito, il consumo sarà sempre quello che ci aspettiamo da competenza di dominio, in qualsiasi condizione anche mai esplorata durante il funzionamento reale. Se lo facciamo calcolare ad un sistema di machine learning o deep learning che ha imparato dai dati storici, potrebbero esserci delle condizioni che non sono mai state esplorate nel funzionamento reale, e che quindi il modello di AI statistica estrapola. Non abbiamo certezza che l’estrapolazione sarà corretta.
Possiamo però unire i pro di entrambi gli approcci per fornire risultati solidi, sicuri, flessibili, affidabili, e facili da interpretare per una persona, creando soluzioni di AI che combinino sistemi esperti e modelli di deep learning. Ad esempio, Wolfram ha sviluppato un plugin per ChatGPT che suggerisce al modello linguistico i risultati corretti dal punto di vista scientifico ad una domanda, in modo che GPT possa utilizzare le informazioni certe per fornire risposte corrette e affidabili.
AI in industria: deep learning e sistemi esperti
Utilizzare i sistemi esperti e i modelli di machine learning e deep learning affiancati è un’ottima strategia per costruire soluzioni affidabili e rappresentative. Proviamo a esplorare insieme qualche esempio pratico:
- Utilizzare un sistema di deep learning per prevedere una baseline, e un sistema esperto per gestire gli allarmi: ovvero costruire un modello in grado di prevedere il valore atteso di una certa variabile a determinate condizioni, ad esempio un modello di consumo o di anomaly detection, accoppiato ad un sistema esperto che valuti la differenza tra valore reale e valore predetto e generi un allarme. L’allarme è generato quando questo valore è troppo alto o troppo basso rispetto ad un limite e una serie di regole determinate in base alla competenza di dominio. In questo modo, è possibile sfruttare le regole esplicite per generare diversi livelli di allarme, in condizioni ingegneristicamente rappresentative di un problema.
- Utilizzare un sistema esperto per simulare il comportamento di un sistema complesso, ed allenare un modello per rappresentarlo in mancanza di parte dei dati: questo approccio è utile se si sta valutando quali sensori installare. In questo modo, generando un sistema di equazioni esplicite, è possibile costruire un set di dati sintetici altamente rappresentativi del fenomeno. Su quel set di dati si possono esplorare input e output di un modello data driven, escludendo via via i parametri meno importanti in modo da allenare un modell data driven altrettanto rappresentativo e pronto per l’industrializzazione.
- Utilizzare un sistema esperto per definire in modo corretto la risposta ad un quesito specifico (ad esempio, una procedura) e utilizzare un sistema di GenAI per un’interfaccia human-friendly: con un sistema di troubleshooting cablato e un LLM in grado di dare risposte facili da comprendere è possibile garantire che le risposte siano corrette e facili da comprendere.
Due facce della stessa medaglia
I sistemi di AI simbolica e statistica sono approcci diversi per rispondere a casistiche specifiche. Comprendendone pregi e limiti è possibile costruire soluzioni più complete, affidabili e accessibili per rispondere a specifici necessità.
Ready to play with AI?