Quando mandi la gente nello spazio
I digital twins non sono roba nuova. Come tutto quello che concerne informatica, robotica e automazione, la prima volta che si è introdotto il concetto di gemello digitale è nei fantascientifici anni sessanta. In quegli anni infatti la NASA, dopo aver assistito inerme all’esplosione del motore principale dell’Apollo 13, si rende conto che rimanere a guardare è poco utile: decide quindi di predisporre una flotta di simulatori in modo da valutare il guasto e rappresentare il comportamento del motore. In base a quanto condiviso dalla NASA in una review, questo gemello digitale fu il primo del suo genere – grazie ad una raccolta continua di dati la NASA è riuscita a ricostruire gli eventi che portarono all’incidente e condurre un’analisi utile a capire meglio come procedere.
Il vero e proprio concetto di Digital Twin tuttavia è stato introdotto nel 1991 nella pubblicazione Mirror Worlds, di David Gelernter, e il termine fu coniato solo nel 2010 sempre dalla NASA. Nel mezzo sappiamo tuttÉ™ quanto la tecnologia si è evoluta: machine learning, deep learning, sistemi di ottimizzazione sempre più potenti, CPU, GPU, TPU, LLM… In questo contesto tecnologico, quello che prima era un’intuizione della NASA o un semplice concetto è diventato qualcosa di diffuso e utilizzato.
Cos’è un Digital Twin
Kritzinger et al. definiscono tre livelli di integrazione per i digital twin:
- i modelli digitali (digital models) , con flusso di informazioni manuale tra sistema fisico e virtuale;
- le ombre digitali (digital shadows), che automatizzano il flusso dati dal fisico al virtuale ma mantengono manuale il feedback dal virtuale al fisico;
- i gemelli digitali (digital twins), che rappresentano il livello più avanzato con un flusso dati bidirezionale e automatico tra sistema reale e digitale.
Digital models, digital shadows, digital twins.
IBM descrive il digital twin come una rappresentazione virtuale di un oggetto o sistema progettata per riflettere con precisione un oggetto fisico. Si estende lungo l’intero ciclo di vita dell’oggetto, viene aggiornato con dati in tempo reale e utilizza simulazioni, machine learning e sistemi esperti per supportare il processo decisionale.
L’obiettivo del digital twin è quindi rappresentare una copia digitale (ma va?) del sistema fisico in campo, in modo da poter monitorare e ottimizzare le performance in campo con regolazioni mirate, o esplorare la salute del sistema e fare diagnosi. E questo non solo dal punto di vista dello schema e dei componenti – con rappresentazioni digitali 3D dettagliate – ma soprattutto grazie ad una rete IoT in grado di registrare i parametri di interesse e comunicarli in real time al digital twin.
Dati + modelli + Storico = aumento delle performance, identificazione delle cause radice di un problema, ottimizzazione del design e delle operations. I like it.
A seconda del livello gerarchico, si riconoscono diversi tipi di digital twin, dal componente, all’asset, all’impianto, all’interno processo. I digital twin operano quindi su vari livelli di dettaglio: i component twins rappresentano singoli componenti base, mentre i parts twins riguardano parti meno rilevanti. Mettendo insieme più componenti, si creano asset twins, cbhe tracciano le interazioni tra componenti, e rendono possibile monitorare o prevedere la performance dell’asset e lo specifico comportamento. I system twins analizzano poi l’interazione di asset, e sono utili per ottimizzare le performance della linea nel suo insieme. Al livello più ampio, i process twins studiano i sistemi in un’intero processo produttivo, ad esempio sincronizzandone il funzionamento per massimizzare l’efficienza complessiva.
AI rocks
Secondo le ricerche pubblicate negli ultimi anni, le tecniche di intelligenza artificiale utilizzate nei digital twin variano a seconda del contesto, delle esigenze e dei compiti da svolgere, e spesso coinvolgono sistemi di machine learning e deep learning – avendo i dati, è facile immaginare il perché. Sistemi supervisionati o di reinforcement learning possono infatti monitorare o simulare condizioni reali aiutando chi prende le decisioni a prenderne di più informate.
Gli algoritmi di deep learning, tra cui le reti neurali convoluzionali (CNN), le reti feedforward e le reti Long Short-Term Memory (LSTM), sono i più utilizzati, soprattutto per il riconoscimento di pattern e le previsioni basate su sequenze temporali. Ad esempio per prevedere modi di guasto o anomalie, o monitorare le condizioni operative. Questi algoritmi infatti riescono a riconoscere e replicare pattern nello spazio (CNN) e nel tempo (LSTM) e sono perfetti per i task di classificazione e previsione​​.
Il reinforcement learning è invece molto usato per scenari di ottimizzazione, come l’adattamento dinamico dei setpoint in base ai parametri operativi in real time. I modelli di reinforcement learning imparano per tentativi ed errori, e poter ottimizzare scenari industriali su un digital twin senza per forza muovere le manovelle sull’impianto è utile per insegnare al modello a fare quello che deve fare senza far esplodere nulla. Questo approccio consente quindi ai digital twin di migliorare progressivamente le proprie strategie decisionali senza bisogno di supervisione costante​.
Tra gli algoritmi di machine learning tradizionali, il random forest e il support vector machine (SVM) sono spesso utilizzati per compiti di classificazione o regressione, essendo efficaci nella gestione di grandi dataset e nella selezione di variabili rilevanti per il monitoraggio e la diagnostica dei sistemi​.
Ottimizzare il presente
I digital twin possono prima di tutto aiutare nell’ottimizzazione di processo. Grazie a tecniche varie di ottimizzazione, con o senza reinforcement learning, i gemelli digitali possono infatti identificare i setpoint più corretti per regolare il sistema in modo reattivo e proattivo rispetto alle condizioni presenti o previste. Inseriti in feedback loops, le loro elaborazioni possono rendere il sistema autonomo nell’ottimizzazione, garantendo massime performance in qualsiasi condizioni. Un po’ marketing, ma giuro che con un po’ di studio si può fare!
In base ai dati in real time inoltre i digital twin possono mappare lo stato di salute delle macchine e dei componenti, in modo da minimizzare micro e macro fermate modificando eventualmente le regolazioni per minimizzare l’incidenza delle anomalie.
Infine, l’utilizzo di sistemi data driven permette di analizzare ed incrociare rapidamente grandi quantità di dati per migliorare le strategie di pianificazione e distribuzione. Questo porta a un’efficienza operativa complessiva, e aumenta la competitività di chi adotta questa tecnologia all’interno delle sue linee di produzione​.
Vedere nel futuro
I digital twins possono essere equipaggiati con sistemi AI-driven di manutenzione predittiva e stima della remaining useful life (che si chiama con l’antico nome vichingo RUL). Modelli di RUL applicati sui componenti più critici danno idea di quanti cicli il componente può ancora sostenere prima di causare microfermate, blocchi o guasti. Utile ad esempio per guarnizioni, batterie, attuatori, filtri, in generale componenti che di solito sono sostituiti a rottura ma che devono essere gestiti nel giusto modo. Di solito, vengono sostituiti prima che si rompano, senza sapere quanto manca ancora alla rottura. Con una valutazione della RUL, è possibile sostituire quello che c’è da sostituire senza esagerare.
Inoltre, si possono integrare modelli per prevedere scarti nei processi. In questo modo, il digital twin può valutare modifiche tempestive nella regolazione di impianto in modo da diminuire la percentuale di scarto, oppure supportare gli gnegneri e le gnegnere1 nella modifica del design o del processo grazie a simulazioni mirate.
La capacità predittiva dei digital twin può estendersi anche a eventi eccezionali, permettendo ai sistemi di adattarsi automaticamente e suggerire azioni correttive rapide. Questa funzionalità è essenziale per garantire la continuità operativa e migliorare la sicurezza, riducendo costi associati a guasti imprevisti e ottimizzando le risorse​​.
Capire il passato
Immagina un sistema su cui poter guardare la moviola dei tuoi guasti. Ora immagina di avere tutti i dati che hanno causato quel guasto, e un sistema in grado di simulare il comportamento del tuo sistema. Got the point?
I digital twin sono in grado di mostrare cosa è successo nel passato, in modo da fare analisi e simulazioni più approfondite, comprendere meglio la causa radice del problema e raccogliere informazioni sul design, sulla gestione e sull’evoluzione nel tempo dei guasti. In fondo, è proprio così che la NASA ha immaginato la primissima versione di un digital twin dell’Apollo 13.
E perché non li hanno tutti?
Se è così bello, utile, divertente, perché allora non costruiamo un digital twin per ogni sistema? Se leggete questo blog da un po’, sapete che la risposta è sempre: dipende. Implementare un digital twin, ovvero una replica digitale di un sistema fisico, è in effetti utile, ma si porta dietro una marea di complessità : connettività , costi di sviluppo e mantenimento, integrazione di sistemi data driven e knowledge driven, sicurezza dei dati… Considerando peraltro che in alcuni contesti i sistemi sono unici e lo sviluppo non può essere scalato su altri componenti simili, è facile intuire quali sono le sfide. Cerchiamo di vederle meglio.
Come funziona il tuo sistema?
Eh, ma è quello che dovrebbe fare il digital twin, no? Certo, però qualcuno nelle fasi di costruzione deve garantire che il sistema sia simulato coerentemente. Creare un digital twin fedele alla realtà richiede una modellazione dettagliata e una comprensione profonda del sistema fisico, servono quindi tante ore, tante teste e tante competenze per farlo.
💡Consiglio: Collaborare con esperti del dominio e utilizzare strumenti di modellazione avanzati per rappresentare accuratamente il sistema.
Raccogliere dati di qualità è difficile
Raccogliere e unificare dati da diverse fonti è complesso. Sistemi eterogenei spesso non comunicano tra loro, rendendo difficile creare un modello digitale accurato che sia basato su dati consistenti, e mappare questi dati in modo da orchestrarli con senso è ancora più difficile.
💡Consiglio: Adottare standard aperti e protocolli comuni facilita l’integrazione dei dati. Investire in middleware che fungano da ponte tra sistemi diversi può essere una soluzione efficace.
Non ci regalano mai nulla
Oltre alla raccolta dei dati, è necessario costruire il digital twin. Che sia l’unione di DT esistenti o la creazione da zero, è necessario coinvolgere sistemisti, softwaristi, sviluppatori e AI engineers per mettere in piedi qualcosa di affidabile. E bisogna anche decidere dove far girare il sistema, garantendo le giuste performance a livello computazionale. La creazione di un digital twin richiede quindi investimenti significativi non solo in hardware ma anche in software e competenze specializzate.
💡Consiglio: Valutare attentamente il ritorno sull’investimento (ROI) e considerare soluzioni scalabili che permettano di iniziare in piccolo e crescere gradualmente.
Signora, la cybersecurity!
Gestire grandi quantità di dati sensibili comporta rischi legati alla sicurezza informatica e alla protezione della privacy. Dove sono registrati tutti i dati su cui sono in grado di ricostruire al secondo il comportamento del mio macchinario? E se un competitor riuscisse ad averli e copiasse quel processo sotto brevetto o segreto industriale? E se un hacker riuscisse a penetrare il sistema e sovrascrivere i comandi chiedendomi poi un riscatto? Mica semplice. La cybersecurity deve essere garantita ad ogni costo, e di nuovo, ogni costo di solito non è un basso costo.
💡Consiglio: Implementare misure di sicurezza robuste, come la crittografia dei dati e l’autenticazione a più fattori, per proteggere le informazioni.
Change management 7x
Ciliegina sulla torta. L’introduzione di un digital twin può incontrare resistenze interne, da chi non ha voglia di aprire un software in più a chi ha paura che il sistema gli rubi il lavoro. Come tutti i procesi di adozione di nuovi strumenti, richiede una gestione efficace del cambiamento.
💡Consiglio: Coinvolgere fin da subito tutte le parti interessate, offrire formazione adeguata e comunicare chiaramente i benefici attesi per facilitare l’adozione.
Uno, nessuno e centomila
Se il tuo macchinario è unico, potresti fare un sacco di fatica per ottimizzare un sistema che poi non si ripaga. Infatti i DT, essendo replica digitale di un sistema fisico, sono difficili da scalare a meno di costruire un gemello di un componente venduto sempre identico a sé stesso e completamente rappresentabile dai soli parametri in ingresso e uscita, di cui è possibile registrare un valore. Il perimetro di riduce notevolmente.
💡Consiglio: Calcola il ROI dell’investimento identificando i benefici reali del DT rispetto ai costi.
Digital TwAIn
Perdoname Mark por mi vida senza fantasia (quanto è difficile scegliere i titoli dei paragrafi?)
I digital twins sono già da soli una meraviglia della scienza e della tecnica. Accoppiati alle capacità del deep learning e dell’AI statistica, diventano una chiave per risolvere problemi complessi altrimenti difficili da affrontare.
Ma come tutto, hanno un prezzo, che peraltro non è per niente basso. Tra l’effort interno per la predisposizione dei modelli e i costi di consulenza, sviluppo, risorse computazionali e l’hardware, i digital twin possono diventare costosi quasi quanto il loro gemello fisico. Per cui, fare una stima seria e basata su dati di quanto un digital twin può davvero cambiare la vita dell’impianto è assolutamente necessario per valutare se ha senso portare avanti gli sviluppi, magari perimetrando su parti dell’impianto semplici da modellizzare ma che portano a savings importanti.
- In qualità di gnegnera ho l’onere e l’onore di ricordare a tutti gli ingegneri e le ingegnere nel mondo che gnegnegnare è una compito di tutti. ↩︎