AI agents before it was cool
Il 2025 è l’anno degli agenti. Sistemi intelligenti, autonomi, indipendenti, interattivi, super potenti, che se gli chiedi il caffè ti rispondono di no perché non hanno studiato 5 anni per fare i caffè agli umani.
Il concetto di sistema che interagisce con il mondo reale in autonomia è più antico dell’intelligenza artificiale. Ad esempio i robot: centrali nelle opere di fantascienza a partire dagli anni 40, ma già ipotizzati nei secoli precedenti, che sanno prendere decisioni in autonomia in base a quello che gli succede intorno.
Il concetto di agente però prende forma negli anni 90, quando i sistemi informatici diventano più potenti e inizia ad essere possibile rendere programmi e algoritmi più autonomi. Gli assistenti virtuali tutto a un tratto sono fattibili, e possono prendere piccole decisioni in autonomia. Vi ricordate Clippy?

All’inizio erano principalmente basati su regole e sistemi esperti.
Ma non serviva grande intuito per intravedere le possibilità che l’unione di agenti e machine learning apriva. All’inizio del nuovo millennio gli studi sull’AI rifioriscono, e grazie all’esplorazione dei sistemi di deep learning per la machine vision e il natural language processing diventa sempre più facile rendere gli agenti interattivi e in grado di gestire compiti più complessi e legati a problemi di ogni giorno. Questi inglesismi ci uccideranno tutti. Man mano che gli studi procedono, i modelli si affinano e diventano sempre più affidabili e complessi. Le auto a guida autonoma, i cobot e la robotica in generale dimostrano l’impatto che si può ottenere con sistemi in grado di gestire in autonomia compiti sempre più complessi.
Attenzione!
Tuttavia, fino agli anni ’20 del 2000 ogni agente era legato indissolubilmente ad un workflow definito da regole fisse. Bene per sistemi più deterministici, male per tutta una serie di altri task in cui il contesto è importante.
Però, nel 2017 viene pubblicato Attention is all you need, che mostra come grazie al meccanismo dell’attenzione e a una rete neurale abbastanza complessa i sistemi di AI possono comprendere contesti ampi e strutturati. OpenAI fa il resto.
Con l’avvento dei large language models si supera l’ultimo ostacolo verso l’AI Agentica (che in italiano suona proprio male). Comprendendo il contesto e riuscendo a elaborare ragionamenti di senso compiuto ispirati a quanto facciamo noi, i sistemi di AI possono collaborare per portare a termine attività e processi articolati che necessitano di grande flessibilità e un pizzico di creatività. Ad esempio scrivere codice, redigere report complessi e approfonditi, fare ricerche online o dare supporto tecnico avanzato.

AI, Agenti e AI Agentica
Mentre sull’AI siamo tutti d’accordo da almeno 60 anni, su agenti e AI agentica a seconda della sensibilità ci sono definizioni differenti. Se l’AI è la capacità delle macchine di replicare capacità cognitive tipiche dell’uomo, possiamo descrivere l’agente come un sistema in grado di interagire con il mondo esterno prendendo decisioni in base agli input. L’AI agentica utilizza sistemi di AI generativa, con un LLM che è in grado di attivare a piacere strumenti (tools) e risorse esterne in base all’obiettivo delineato insieme all’uomo.
Anthropic, che per prima ha rilasciato un sistema in grado di lavorare su un desktop, ad esempio differenzia i workflow dagli agenti. I workflow sono sistemi in grado di compiere azioni predefinite, basate su regole fisse, che sfruttano LLM per personalizzare l’output. I workflow possono essere complessi a piacere, integrare diversi tools e LLM specializzati, ma non sono in grado di reagire in modo flessibile.
Gli agenti invece comprendono, progettano, attivano tool e risorse e esplorano i risultati in modo altamente flessibile.

My Data Science agent
Rimanendo nell’ambito della generazione di codice, ipotizziamo un agente per la data science.
Tutto parte da un dataset fornito dall’utente insieme all’obiettivo del modello da costruire. L’utente interagisce con il tech lead, che coordina le attività e attiva i tool. Il Tech Lead è una sorta di regista dell’intera operazione, orienta l’analisi decidendo cosa fare e in che ordine. In base a come decide di orientare lo sviluppo può attivare una squadra di agenti specializzati, ciascuno con un ruolo preciso.
Il primo a entrare in gioco è il Data Engineer, che lavora insieme a un code interpreter. Questo agente è responsabile del lavoro sporco: controlla che il codice da eseguire sia sicuro (seguendo linee guida di cybersecurity), lo esegue e riporta l’output al Tech Lead. Da lì può partire un ciclo di interazioni tra Tech Lead e Data Engineer per sistemare eventuali problemi o iterare sul task. Se, ad esempio, il file non si importa correttamente o i dati non sono puliti, il Tech Lead può intervenire per guidare l’ingegnere nel risolvere la situazione. Una volta che tutto è sistemato, il Data Engineer salva i dati puliti in una cartella, pronti per essere analizzati.
A quel punto entra in scena il Data Scientist (o il Data Analyst), che viene attivato solo dopo che il Data Engineer ha fatto il suo. Anche lui lavora con il code interpreter, ma con un approccio più mirato: esegue analisi, crea modelli o genera visualizzazioni seguendo task già definiti dal Tech Lead in base allo specifico use case. In pratica, è come se ricevesse una missione chiara e precisa e la portasse avanti con gli strumenti giusti.
È un processo fluido, modulare, dove ogni agente fa la sua parte, ma sempre sotto la guida intelligente del Tech Lead che tiene il filo di tutto, e chiede chiarimenti all’utente dove ritenuto necessario.
AI agentica e industria
Un sistema indipendente in grado di prendere decisioni in base al contesto e agli input iniziali può essere un asso nella manica per diverse applicazioni. Accoppiare agenti AI con output di modelli tradizionali o in base a dati di processo, immagini o altri tipi di trigger aumenta ulteriormente il grado di autonomia possibile. Proviamo a ipotizzare scenari per i tre ambiti di interesse in industria: manutenzione, energia e processo.

Manutenzione: integrare manutenzione predittiva e troubleshooting
Sappiamo già che i modelli di machine learning e deep learning sono in grado di riconoscere pattern di comportamento anomali, e associarli a modi di guasto. Sappiamo anche che grazie alla RAG e ai sistemi di AI generativa possiamo costruire sistemi di troubleshooting smart in grado di rispondere a domande nel merito. E se si unissero le due soluzioni? Un agente in grado di intercettare l’anomalia, esplorare le procedure di troubleshooting, procedere in autonomia con i test e gli approfondimenti nei dati in base allo storico e ai manuali, ed eventualmente generare un ticket o una segnalazione approfondita e dettagliata con quanto necessario per risolvere l’anomalia. Nel caso più estremo, il sistema potrebbe addirittura risolvere l’anomalia in autonomia – facendo attenzione alla compliance con l’AI Act.
Questo approccio può essere utile anche per gestire le inefficienze energetiche, così come richiesto dalla ISO50001. In base alle procedure previste, gli agenti possono gestire l’anomalia, mapparla, classificarla, valutarne la risoluzione e poi verificarne l’impatto energetico, specializzando le azioni in base al tipo di anomalia o alle specificità del caso.
Energia: identificazione delle opportunità di miglioramento
Una delle sfide degli energy manager è definire quali sono le opportunità di miglioramento necessarie per garantire un miglioramento dell’efficienza – soprattutto se in ambito di ISO50001. Il primo anno è facile, ma più passa il tempo più diventa difficile ipotizzare nuovi interventi. In questo caso un agente con tool specializzati per l’analisi dei dati, la modellazione e la ricerca su database proprietari e risorse pubbliche può essere in grado di gestire facilmente questo task. In base alle performance attuali, l’agente identifica le aree che presentano un mix di tecnologia obsoleta, EnPI sotto standard interno o esterno o alti consumi energetici. A seconda del tipo di uso energetico, valuta gli interventi che si possono applicare, identifica la baseline e il potenziale saving, dimensiona un ordine di grandezza del costo, e mappa gli interventi in base a pay back time, efficienza ottenibile e altri KPI specifici per uso energetico.
Un agente del genere potrebbe poi prendere in carico anche il monitoraggio: modellando la situazione ex-ante in base ai dati precedenti all’intervento, l’agente è in grado di dimensionare il saving, contestualizzarlo, generare report approfonditi che descrivano intervento e risultati e magari generi una dashboard di approfondimento.
Processo: ottimizzazione end-to-end
L’ottimizzazione di un processo industriale è un termine cappello che racchiude duecento sfumature e flussi decisionali: gestione ricambi, microfermate, scarti, regolazione delle macchine… Un sistema di AI agentica studiata per bene è in grado di supportare in modo importante tutti gli aspetti di processo, integrando le varie decisioni in real time, adattate al contesto e capaci di reagire.
Gli agenti monitorano continuamente ogni fase della produzione e possono riadattare le operazioni al volo in base alle condizioni del momento. Ad esempio, se un agente rileva un accumulo di prodotti in una stazione (inizio di collo di bottiglia), può riorientare il flusso deviando parte della produzione a una macchina alternativa o richiedendo supporto aggiuntivo, prima che il collo di bottiglia diventi critico. O ancora, un agente può sorvegliare i dati dei sensori lungo la linea, un altro agente predice in anticipo la necessità di rifornimenti di materiale o utensili, mentre un terzo agente regola la velocità dei nastri trasportatori o la sequenza di lavorazione. Comunicano tra loro in tempo reale, scambiandosi informazioni sullo stato corrente, così che l’intero sistema si auto-coordina senza bisogno di un supervisore centralizzato. Questo porta a un sistema produttivo resiliente e adattivo: se qualcosa cambia (un ordine urgente, un macchinario che rallenta, etc.), gli agenti riconfigurano automaticamente il piano di produzione per assorbire l’imprevisto.
Non così veloce
Sembra tutto meravigliosamente semplice, dove sta l’inganno?
Se dal punto di vista tecnico tutto è possibile, nel triste mondo della pragmaticità bisogna fare i conti con le solite due cose: dati e risorse.

Per far funzionare sistemi così complessi in modo affidabile è necessario che ogni processo sia stato già mappato e descritto in modo quantitativo grazie a dati, documenti ordinati, procedure, registrazioni… Senza dati, anche l’agente più potente potrebbe non avere informazioni sufficienti per agire in modo cosciente e informato – come succederebbe con una qualsiasi persona. In più, quando si coordinano tool che includono sistemi di AI come i LLM o le reti complesse, l’infrastruttura informatica diventa centrale. In alcuni casi i costi legati all’operatività degli agenti sono così alti che il beneficio che generano potrebbe non essere sufficiente per ripagare l’investimento.
Lista della spesa per costruire agenti AI
Sempre Anthropic definisce una linea di buone prassi comode da tenere a mente quando si costruiscono agenti AI.
- Start simple: Parti con l’approccio più semplice possibile. Un design semplice è più facile da debuggare, ti permette di validare rapidamente input, output e struttura del task. Più complesso è il sistema, più difficile sarà risolvere problemi in fase di sviluppo.
- Divide et impera: Scomponi il problema in sottotask gestibili. Ogni task deve essere semplice da comprendere, testare e monitorare. Questo migliora la tracciabilità e riduce gli errori.
- Guardrail: Implementa controlli e meccanismi di validazione lungo il flusso dell’agente. Anche i modelli più avanzati possono essere vulnerabili: verifica sempre la sicurezza degli input (es. filtraggio, validazione, classificazione safe/not-safe) e degli output (es. blocco o revisione se necessario).
- Fact checking XAI-friendly: Integra meccanismi di explainability e fact checking rapido. L’utente deve poter verificare facilmente le informazioni, ad esempio con fonti cliccabili, collegamenti ai chunk rilevanti della RAG, riferimenti precisi a porzioni di testo (es. in un PDF).
- No framework all’inizio: Evita di partire subito con framework complessi (es. LangChain, LlamaIndex). Segui la documentazione ufficiale (es. OpenAI) per costruire un agente da zero. Questo ti aiuta a comprendere a fondo come funzionano i singoli componenti.
- Prompt engineering accurato: Fornisci al modello istruzioni dettagliate sui tool disponibili, con esempi d’uso, edge cases, formati input/output chiari (preferibilmente JSON).
Evita strumenti che introducono overhead di formattazione (es. string escaping complesso). - Poka Yoke del prompt: Riduci la possibilità di errore del modello descrivendo i tool in modo preciso. Anticipa gli errori comuni e guida il modello nel comportamento corretto con prompt robusti.
- Sandboxing e testing ❤️: Esegui sempre test in ambienti protetti. Il comportamento dell’agente deve essere validato prima di andare in produzione, soprattutto in contesti dove è previsto l’uso di tool reali o output critici.
Un nuovo mo(n)do
Gli agenti uniti alla potenza dei LLM apre nuovi orizzonti prima difficili da immaginare, in tutti i settori. Un agente con gli strumenti giuste e abbastanza informazioni può potenzialmente sostituire una persona esperta in qualsiasi task digitale – e in alcuni casi anche fisico. Tuttavia, costruire agenti complessi può essere costoso e resource-demanding (acqua, energia, potenza computazionale…), e la gestione della compliance e della responsabilità di scelta non è sempre facile da gestire.
Come sempre, identificare l’obiettivo, definire spazi e ambiti in cui l’automazione può portare un saving importante, e mappare dati e informazioni sufficienti è la chiave per costruire soluzioni di impato a supporto delle persone.