AI-powered Lean Six Sigma

Un’industria snella

Negli anni ’40 Toyota si è fatta una domanda e data una risposta. Come posso eliminare gli sprechi e migliorare il flusso di lavoro? Inventerò una metodologia strutturata che mi supporti in questo obiettivo. E nacque la Lean Manufacturing.

Negli anni ’80 Motorola si è fatta una seconda domanda e data una seconda risposta. Posso usare la statistica per ridurre la variabilità dei processi? Perfezionerò un processo per monitorare la variabilità e intercettarne anomalie. E nacque il Six Sigma.

Unendo i due approcci, abbiamo il Lean Six Sigma, una metodologia di miglioramento continuo per ottimizzare i processi aziendali, ridurre gli sprechi e migliorare la qualità dei prodotti o servizi.

Lean Manufacturing, Six Sigma e ogni sfumatura nel mezzo

Il Lean Manufacturing si basa sui cinque principi di Womack:

  1. Definire il valore dal punto di vista del cliente.
  2. Mappare il flusso di valore per identificare tutte le attività che contribuiscono alla creazione del prodotto o servizio.
  3. Creare un flusso continuo eliminando gli ostacoli e le interruzioni nel processo.
  4. Stabilire un sistema pull, in cui la produzione è guidata dalla domanda del cliente.
  5. Perseguire la perfezione attraverso il miglioramento continuo.

Questi principi mirano a eliminare gli sprechi – muda in giapponese – che includono difetti, sovrapproduzione, attese, trasporti inutili, processi eccessivi, scorte inutili, movimenti non necessari e talenti non utilizzati

Il Six Sigma utilizza invece il ciclo DMAIC, un approccio strutturato per il miglioramento dei processi:

  • Define (Definire): identificare il problema e gli obiettivi del progetto.
  • Measure (Misurare): raccogliere dati per comprendere le prestazioni attuali del processo.
  • Analyze (Analizzare): esaminare i dati per identificare le cause principali dei problemi.
  • Improve (Migliorare): sviluppare e implementare soluzioni per affrontare le cause radicate.
  • Control (Controllare): monitorare il processo per garantire che i miglioramenti siano sostenuti nel tempo.

Mix it well, trust the process

Il processo della Lean Six Sigma unisce i cinque principi al ciclo DMAIC, e prevede una prima fase di esplorazione e analisi del sistema e della sua variabilità con strumenti statistici. L’obiettivo di questa fase è capire dove il processo si scosta dalla normalità e tramite analisi e competenza di dominio perché si sta scostando.

  • Raccolta dati: Si parte dalla misurazione delle prestazioni del processo (tempo ciclo, difettosità, scarti, ecc.).
  • Analisi della variabilità: Si studiano le fluttuazioni dei dati per capire dove il processo si discosta dalla norma.
  • Strumenti usati:
    • Control chart (grafici di controllo) per monitorare la stabilità del processo.
    • Capability analysis per capire se il processo soddisfa le specifiche richieste.
    • Pareto analysis per individuare le cause più impattanti.
    • Regression analysis e ANOVA per identificare relazioni tra variabili.

Suona famigliare.

La seconda fase di ottimizzazione vuole esplorare la causa della deviazione (root cause) per identificare modifiche di processo efficaci, monitorandole nel tempo.

  • Individuazione delle root cause: Grazie all’analisi dei dati, si trovano le cause profonde dei difetti, sprechi (non solo i sintomi).
  • Sperimentazione e miglioramento:
    • Si testano soluzioni con metodi come il Design of Experiments (DoE).
    • Si usano simulazioni o test pilota per verificare gli effetti delle modifiche.
  • Standardizzazione: Una volta identificate le modifiche che funzionano, si aggiornano le procedure per renderle stabili nel tempo.
  • Controllo continuo: Si impostano strumenti di monitoraggio per evitare regressioni (es. sistemi SPC – Statistical Process Control).

Suona molto famigliare.

Cosa succede se ci attacco strumenti di analisi AI-driven?

AI e Lean Six Sigma

L’integrazione tra Lean Six Sigma e AI sembra una naturale evoluzione di questo processo di miglioramento. Sistemi in grado di intercettare la variabilità con carte di controllo multivariate invece che concentrarsi su un singolo parametro – come ad esempio i pezzi prodotti o i tempi ciclo – rende possibile contestualizzare meglio le deviazioni e diminuire i falsi positivi. Sistemi di ottimizzazione in grado di intercettare facilmente colli di bottiglia rendono possibile identificare soluzioni ottimali anche in contesti con molti parametri liberi. Digital twin disegnati per rappresentare le specificità del sistema rendono più rapidi e precisi i test e le sperimentazioni delle ultime fasi. I sistemi di RAG e di explainable AI possono facilitare nella ricerca delle cause radice in base alla storia e alle correlazioni principali.

Troppo veloce? Partiamo dal principio.

Carte di controllo AI driven

Gli strumenti utilizzati nella prima fase coinvolgono tra gli altri carte di controllo e analisi di regressione. Ovvero strumenti utili per intercettare variazioni anomale sul trend di una variabile, e correlazioni interessanti per spiegare queste variazioni. Costruire la carta di controllo di una variabile è facile se questa variabile ha una distribuzione normale (gaussiana), ovvero utilizzando media e limiti superiore e inferiore calcolati con la deviazione standard è possibile spiegare come ci aspettiamo che si comporti il sistema.

Ma se la variabile inizia ad avere un comportamento non gaussiano, con variazioni stagionali e comportamenti non stazionari, costruire una carta di controllo in grado di identificare anomalie inattese e discriminarle da cambiamenti del comportamento attesi diventa estremamente più difficile. Nei processi non stazionari o con stagionalità, le carte di controllo standard diventano inefficaci: le soglie fisse non riflettono più il comportamento atteso.

E se fossimo in grado di rappresentare la variabilità di un parametro guardando anche gli altri parametri?

I sistemi di AI hanno l’obiettivo di prevedere qualcosa in base a qualcos’altro. Ad esempio, possiamo allenare un modello di regressione in grado di prevedere il numero di pezzi in base alla ricetta, i setpoint, le caratteristiche della materia prima, la velocità delle lavorazioni…

Questi modelli di regressione presentano un comportamento molto interessante: la differenza tra valore reale e predetto su una popolazione di dati con caratteristiche equivalenti ai dati usati per l’allenamento ha una distribuzione normale. Quindi, facilmente controllabile tramite una carta di controllo!

Utilizzando un modello sufficientemente preciso e statisticamente validato, in grado di rappresentare il grado di variabilità di un parametro in funzione degli altri parametri, diventa molto più facile identificare cambi di comportamento non previsti.

Capability analysis AI driven

L’analisi di capacità di processo – capability analysis – è uno strumento statistico utilizzato per valutare se un processo è in grado di produrre in modo stabile entro specifici limiti di tolleranza. Indicatori come il potenziale di processo o la performance grezza misurano quanto il processo è centrato e quanto è disperso rispetto ai limiti di specifica.

Indicatore e misuraTiene conto della media dei parametri di processo?Richiede processo sotto controllo?Misura
Cp – Process Capability IndexPotenziale capacità del processo, ovvero come il processo si posiziona rispetto ai limiti di specifica, assumendo che sia centrato.
Cpk – Process Capability Index, centered on performanceCapacità reale del processo, considerando anche lo scostamento dal centro delle specifiche.
Pp – Process Performance IndexCome Cp, ma si basa sui dati reali raccolti, senza richiedere che il processo sia stazionario.
Ppk – Process Performance Index, adjustedCome Cpk, ma per processi non stazionari o ancora in fase di studio.

Tuttavia, questi indici si basano sull’ipotesi che il processo sia stazionario e che la distribuzione della variabile sia gaussiana, o quantomeno stabile nel tempo. Nei processi industriali complessi, dove le condizioni operative cambiano dinamicamente in funzione di ricette, macchine, operatori, temperature o materie prime, sappiamo già che questa ipotesi spesso non è garantita.

Però. Come per le carte di controllo, un modello predittivo ben addestrato permette di stimare il valore atteso di una variabile critica in funzione delle condizioni operative. A questo punto, è possibile eseguire la capability analysis non più sul dato grezzo, ma sui residui del modello (ossia la differenza tra valore osservato e valore predetto). As seen above.

Come abbiamo già visto prima, utilizzare modelli multivariati ci permette di controllare meglio il processo e identificare con più chiarezza variabilità non spiegate dal contesto: questo approccio permette di distinguere chiaramente tra variabilità fisiologica, attesa e spiegabile e variabilità anomala, abilitando un’analisi di capacità realmente sensibile e contestualizzata.

Gestire i colli di bottiglia

Una volta costruiti modelli affidabili in grado di rappresentare il comportamento del processo, è possibile fare un passo oltre il monitoraggio: usare questi modelli per ottimizzare attivamente i parametri di processo.

L’obiettivo è identificare, dopo aver definito il perimetro di esistenza delle soluzioni, le combinazioni ottimali di variabili controllabili – setpoint, velocità, temperature, sequenze operative… – che massimizzano un indicatore di performance, nel rispetto dei vincoli di qualità e sfruttando al massimo le risorse limitate come i colli di bottiglia.

L’AI lancia le biglie per ottimizzare.

Questo approccio trasforma i modelli predittivi in motori decisionali, aprendo le porte a una nuova forma di controllo avanzato del processo proattiva, adattiva ed economicamente orientata.

Design of Experiments e test con digital twins

I metodi tradizionali di Design of Experiments (DOE) prevedono un piano sperimentale fisso, dove si testano combinazioni predefinite di fattori per capirne l’influenza sui risultati. Questo approccio è ottimale ma può richiedere molti test costosi e lunghi. Con l’AI, in particolare tecniche come Bayesian optimization o active learning, il DOE diventa iterativo e adattivo:

  • si parte da un set iniziale di esperimenti (ad esempio un DOE fattoriale standard),
  • si costruisce un modello predittivo (es. processi di regressione, Gaussian Process…),
  • ad ogni iterazione il modello suggerisce i nuovi punti di sperimentazione più promettenti o informativi, equilibrando esplorazione ed ottimizzazione.
Esempio di utilizzo di tecniche di AI per l’ottimizzazione di un motore termoelettrico. Fonte.

Questo approccio riduce del 50‑70 % il numero di esperimenti necessari per arrivare a risultati di qualità, come dimostrato in ambito materiali scientifici e chimici . Inoltre, combinando DOE adattivo e ottimizzazione bayesiana, si riesce a:

  • costruire modelli sempre più accurati e rappresentativi del sistema in esame,
  • identificare condizioni operative ottimali con meno risorse,
  • testare nuove condizioni contestualizzate allo stato reale del processo.

In sintesi, l’AI trasforma il DOE da un processo passivo e costoso in un ciclo attivo, intelligente e auto-migliorante: si sperimenta dove serve, si ottiene di più con meno, e si apprende continuamente.

Digital twins e testing

Il digital twin – una replica digitale dinamica di un processo fisico – consente di sperimentare in un ambiente sicuro, rapido e a costo marginale quasi nullo. Integrando modelli AI e fisici, il digital twin diventa uno spazio virtuale dove è possibile testare nuove condizioni operative, strategie di controllo, ricette o modifiche impiantistiche prima di applicarle al mondo reale.

Quando il gemello digitale è alimentato da modelli predittivi affidabili, validati su dati reali, è possibile utilizzarlo per accelerare i test e accelerare le sperimentazioni:

  • sperimentazione accelerata: si possono simulare settimane o mesi di operazioni in poche ore;
  • test su scenari rari o critici: condizioni che sarebbe rischioso o impossibile riprodurre in impianto;
  • ottimizzazione in tempo reale: integrazione con algoritmi AI per esplorare lo spazio delle decisioni in modo efficiente;
  • validazione continua: confronto tra realtà e simulazione per affinare costantemente il modello.

Miglioramento continuo mode ON

L’unione tra Lean Six Sigma e Intelligenza Artificiale rappresenta una potente combinazione per le aziende che mirano al miglioramento continuo e ad un processo di scelta data-driven. Integrare modelli di AI nei tradizionali strumenti di analisi statistica di processo – come carte di controllo, capability analysis e DOE – permette di affrontare variabilità non stazionarie, condizioni complesse e colli di bottiglia operativi con un livello di precisione e adattività prima impensabile. Diverso approccio, risultati potenziati.

Strumenti predittivi e digital twin inoltre trasformano l’approccio da reattivo a proattivo: non monitoriamo più, ma ma riusciamo ad anticipare, ottimizzare e validare in tempo reale. La sperimentazione diventa continua, il controllo più intelligente, e le decisioni più oggettive.

In questo scenario l’ingegnere di processo del futuro è anche un architetto di modelli, capace di leggere i dati, strutturare la conoscenza e guidare l’innovazione con metodo e visione. Non male come futuro, eh?

Articoli simili