Sapreste riconoscere una persona da una macchina?
Domanda stupida, la riformulo. Immaginate di discutere via chat con qualcuno. Riuscireste a dire se state parlando con un chatbot o una persona? Beh, con ragionevole certezza sì, penserete.
E invece, secondo uno studio pubblicato nel febbraio 2024, vi sbagliate. Matthew O. Jackson e il suo team hanno dimostrato infatti che l’ultima versione del modello sotto ChatGPT viene scambiata per un essere umano più spesso degli stessi interlocutori umani. Incredibile, vero? Ma come ha fatto l’AI a diventare così potente da essere quasi indistinguibile da noi?

Per comprendere l’AI, dobbiamo tornare indietro di 75 anni, quando Alan Turing si chiese: “Ma le macchine possono pensare?”. In quel documento del 1950, che è più filosofia che informatica, Turing ipotizza un test che prevede due persone e un robot. Nel bel mezzo di una conversazione, una delle due persone viene sostituita dalla macchina. Se l’altra non si accorge della sostituzione, la macchina passa il test. Il famoso test di Turing.
Sembrava fantascienza 75 anni fa, e invece il paper di Matthew O. Jackson sembra dimostrare che siamo già nel futuro.
E quindi, cos’è questa intelligenza artificiale?
Ci sono molte definizioni, ma in generale possiamo descrivere l’AI come l’insieme di tecnologie che rendono le macchine capaci di replicare le capacità cognitive tipiche dell’uomo. Insomma, una macchina che “pensa”.
E infatti per costruire i primi sistemi di AI i ricercatori e le ricercatrici, già dagli anni ‘50, si sono posti una domanda fondamentale: come pensiamo noi?
All’inizio la ricerca sull’AI si è concentrata sulla ricostruzione delle regole con cui pensiamo. Questo primo approccio, che caratterizza la branca dell’AI simbolica, non ha bisogno di molti dati, perché chi la programma descrive per filo e per segno ogni regola per elaborare l’informazione.
Vuol dire, per esempio, descrivere in modo esplicito l’ordine con cui le parole devono essere scritte, o l’equazione specifica per prevedere quanto produrrà domani un pannello fotovoltaico. Certo, che fatica! Ma davvero noi pensiamo per regole?
La svolta che ci porta a dove siamo oggi è stata capire che no, in effetti noi non pensiamo per regole. Noi pensiamo per intuizioni ed esperienza. E più esperienza facciamo, più impariamo.
Abbiamo appena scoperto l’approccio dell’AI statistica, quello che conosciamo tutti come machine learning.

Nidhi Chappell ci dice che grazie al machine learning le macchine imparano come imparerebbe un bambino. Un neonato non sa parlare, ma ascoltando, mimando e interagendo con il mondo – facendo esperienza – man mano impara parole semplici, poi frasette, poi costrutti sempre più complessi, finché da grande non è in grado di scrivere un libro. Nessuno nei primi anni di vita gli ha insegnato le regole della grammatica: le ha intuite e imparate grazie all’esperienza.
Avanti veloce agli anni ‘70-’80: vengono scoperte (o inventate?) le reti neurali, algoritmi ispirati al nostro cervello che rendono possibile l’apprendimento di concetti sempre più complessi.
Ma c’era un problema: come far fare esperienza alle macchine per imparare in modo efficace? Come sostenere i calcoli con computer così poco potenti? E dove trovare abbastanza dati per simulare l’esperienza?
Ora ipotizziamo di avere computer sempre più potenti e diffusi, tanto potenti e diffusi da approdare in ogni casa e su ogni scrivania. E ipotizziamo anche di avere ad un certo punto uno spazio digitale in cui chiunque può scrivere, caricare video, foto, audio, numeri, direttamente dal proprio PC, tipo il world wide web.
Ecco l’esperienza di cui abbiamo bisogno. Ecco la potenza che ci serve, ed ecco tutti i dati di persone in molti luoghi del mondo, a disposizione di reti neurali sempre più potenti.
Con il nuovo millennio gli studi sull’AI rifioriscono: le macchine imparano a vedere, scrivere, riconoscere oggetti e interagire con noi, fare previsioni sempre più complesse in base al passato, riconoscere pattern e indicarci anomalie e insight. Con questi presupposti, l’AI generativa non era una questione di “se”, ma di “quando”.
E tutto questo grazie ai dati. Quegli stessi dati che l’umanità ha costruito e messo insieme.
Ma cosa c’è in quei dati?
Che tipo di mondo stiamo insegnando alle macchine? Finora sembra che gli algoritmi di AI statistica facciano tutto da soli: ecco i dati, vai e impara. Prima di continuare, vorrei svelare qualche segreto del mestiere introducendo il concetto di allenamento dei sistemi di AI.
In questo processo – almeno fino ad oggi – il protagonista principale è l’essere umano: il data scientist, l’AI engineer, che con le sue decisioni plasma l’algoritmo in base a ciò che vuole che l’algoritmo compia. Non c’è magia dietro, solo tanta matematica, informatica e buon senso. Il data scientist – o la data scientist – seleziona i dati su cui l’algoritmo imparerà, definisce le metriche di performance per valutare l’apprendimento e ne decide la complessità. Ed è sempre il data scientist a stabilire come verificare se il modello ha realmente appreso la realtà e con quale grado di affidabilità.

Qui si aprono due enormi questioni: come scegliere i dati e quanto complesso rendere l’algoritmo.
I dati, ricordiamolo, sono tutte le informazioni che si possono registrare e recuperare: immagini, parole, video, musiche… E la scelta di questi dati determina la realtà che stiamo insegnando ai nostri modelli.
Immaginiamo di allenare un sistema di AI generativa per ricette, scegliendo dati da un blog. In questo blog qualcuno ha scherzosamente scritto che per fare una buona pizza serve un etto di colla vinilica. Come i bambini imparano senza senso critico, così anche gli algoritmi non si fanno domande e prendono tutto per buono: un modello allenato senza controlli potrebbe quindi suggerire ricette per la pizza con un etto di colla tra gli ingredienti, con la stessa innocenza di un bambino. Esattamente ciò che accadde a Gemini di Google l’anno scorso.
Poco male, direte. Chiunque vedendo “un etto di colla” in una ricetta capisce che è un errore, no?
Ora però immaginiamo di allenare un modello per pre-selezionare candidati per un ruolo, fornendogli in modo indiscriminato informazioni su sesso, età, competenze e così via. Se negli ultimi 15 anni quel ruolo ha visto una maggioranza di uomini, il modello interpreterà che essere maschio è un fattore determinante per essere selezionato. Quando il modello analizzerà un CV maschile, aumenterà le probabilità di selezione a prescindere dalle competenze reali. Ma in questo caso, riusciremmo a intercettare l’errore?

E qui entra in gioco la responsabilità del data scientist, che decide di rimuovere l’informazione di genere dai dati. Senza questa informazione, il modello non può discriminare tra uomini e donne. Non vedrà più una realtà a maggioranza maschile, ma una realtà di persone con competenze equiparabili. Il modello, da portatore di bias, si trasforma in un alleato contro i pregiudizi di genere nel mondo del lavoro. E tutto questo grazie a una sola scelta consapevole da parte di chi costruisce il modello. Un modello per selezionare CV è, in fondo, un semplice classificatore, leggero e poco intensivo dal punto di vista computazionale.

Ma le reti neurali possono essere complesse a piacere.
L’unico limite è la potenza di calcolo. E oggi i server a nostra disposizione sono enormemente potenti, in grado di allenare algoritmi con decine di trilioni di parametri. Quanto è grande un trilione? Un numero con 12 zeri. Un trilione di secondi equivalgono a 31mila anni. Allenare un modello con un trilione di parametri richiede circa 63 GWh di energia, la stessa quantità che una cittadina italiana di 50.000 abitanti consuma in un anno. È tanta energia.
Talmente tanta che oggi uno dei temi più discussi sui grandi modelli linguistici è la loro sostenibilità rispetto all’impatto ambientale. Ma un modello così complesso è davvero necessario? Serve davvero costruire modelli generalisti e onniscienti?

Se un data scientist può scegliere lo scopo e l’architettura, può anche decidere di costruire modelli più piccoli e specializzati, che consumano meno risorse e sono altrettanto utili.
E modelli specializzati allenati su dati specifici possono fare grandi cose:
- AlphaFold può prevedere la struttura di proteine complesse in giorni anziché in anni.
- Algoritmi di machine vision riescono a riconoscere tumori con la stessa precisione di un medico.
- Nel mio team, abbiamo sviluppato modelli specializzati per prevedere guasti nei macchinari industriali o anticipare onde di piena nei bacini alpini, utilizzando reti neurali con poche centinaia di parametri.
L’AI non è solo una questione di potenza di calcolo.
È una questione di scelte. Scelte di chi i modelli li costruisce.
E sistemi di AI sono già da anni abbastanza potenti per rendere realtà le distopie più classiche, tipo il social scoring, la sorveglianza di massa stile 1984 o la generazione massiva di fake news. Ed ecco quindi un altro livello di responsabilità. Che guardrail etici vogliamo costruire per evitare che l’AI si tramuti da abilitatore di grandi innovazioni a protagonista di mondi distopici?
Nel 2023 l’Europa ha formalizzato l’AI Act, che regolamenta l’uso dell’AI per guidare lo sviluppo secondo i principi etici che ci caratterizzano e evitare usi impropri. Secondo l’AI Act, tutti i sistemi di intelligenza artificiale si portano dietro un rischio, che deve essere identificato, classificato e mitigato. Sistemi troppo rischiosi, come quelli cari alla letteratura, sono vietati.

Ma di nuovo, i primi protagonisti dello sviluppo dei sistemi è chi i sistemi di AI li costruisce. E rispetto al passato, stiamo costruendo da zero e abbiamo l’onore e il dovere di chiederci che tipo di mondo vogliamo costruire.
Perché in fondo l’AI è solo uno strumento.
Non è buona o cattiva: dipende da noi, da come scegliamo di costruirla e usarla.
Sareste in grado di riconoscere una persona da una macchina?
Oggi la risposta non è più così ovvia.
Perché se l’AI trova schemi, siamo noi a interpretarli.
Se l’AI impara dai dati, siamo noi a fornirglieli.
Se l’AI sta cambiando il mondo, siamo noi a decidere in che direzione.
Fonti
Google’s AI Recommends Glue on Pizza: What Caused These Viral Blunders?