AWS Summit 2025 | Usare l’AI generativa per esplorare i disegni tecnici
Casi d’uso interessanti
L’AWS Summit 2025 a Milano è stato il più partecipato di sempre. 7000 professionisti e professioniste insieme per parlare di tecnologie applicate e uso di dati e sistemi di AI. Il filone dedicato all’AI Applicata alla manifattura ha raccolto nomi importanti come Iveco e Pirelli, che hanno condiviso la loro esperienza e i loro casi d’uso.
Vari use case hanno attirato la mia attenzione, e ho deciso di scriverne nell’arco dei prossimi mesi approfondendone i dettagli più interessanti – partendo da un caso d’uso affascinante su come usare uno stack di soluzioni AI diverse per supportare i progettisti nel loro tedioso lavoro.
Estrazione automatica di informazioni da disegni tecnici
Il core business dell’azienda si basa sull’innovazione di prodotto, che garantisce competitività e product-market fit. Questo significa tanto lavoro per i ruoli tecnici e di ingegneria, che devono sviluppare, perfezionare, progettare. Il caso d’uso si inserisce proprio nel contesto della progettazione, che spende centinaia di ore a disegnare schemi e disegni tecnici in base ai nuovi requisiti e progetti. Ogni disegno è a sé, ma spesso utilizza componenti o dettagli che si sono già utilizzati in altri progetti. Senza nessun sistema di ricerca intelligente a supporto però immaginerete anche voi che è più veloce (e divertente!) ridisegnare tutto da capo piuttosto che cercare in centinaia di disegni passati quell’ingranaggio specifico con quella dimensione e quella tolleranza. Se solo ci fosse uno strumento in grado di leggere i disegni tecnici già archiviati per diminuire il tempo speso su singolo progetto, i costi di sviluppo e gli errori…
In questo caso d’uso sistemi di Optical Character Recognition (OCR), metodi di Natural Language Processing (NLP) e Large Language Models (LLM) vengono utilizzati per costruire uno strumento a supporto dei progettisti in modo da ricercare informazioni negli schemi passati. A chi fa sistemi di AI piacciono tantissimo le sigle.
2025, welcome to the future
Fortuna che siamo nel 2025 e siamo riusciti a inventare sistemi di AI in grado di riconoscere testi da scan, interpretarli e contestualizzarli rispetto allo schema generale: in questo caso d’uso sistemi di Optical Character Recognition (OCR), metodi di Natural Language Processing (NLP) e Large Language Models (LLM) vengono utilizzati per costruire uno strumento a supporto dei progettisti in modo da ricercare informazioni negli schemi passati. A chi fa sistemi di AI piacciono tantissimo le sigle.
L’azienda ha sperimentato e poi industrializzato un sistema basato su AI multimodale e computer vision, capace di riconoscere i componenti meccanici e i relativi parametri dimensionali (diametri, angoli, interassi, ecc.) nei disegni. La prima versione sviluppata con un grado di copertura del 60% non aveva accuratezze particolarmente elevate, ma con un dataset più ampio e una copertura maggiore (98%) il sistema ha raggiunto performance del 78%, calcolata come accuratezza (quindi quanto spesso il sistema indovina).

Architettura e flusso di ragionamento
Il sistema processa la domanda analizzando gli schemi con diversi step in un workflow strutturato per fornire lettura, contesto e comprensione.

I principali step e strumenti si possono riassumere come segue:
- Schemi tecnici
- Layer di estrazione (SageMaker, Jupyter Notebooks)
- Flusso per il riconoscimento dei caratteri (Amazon Textract)
- Flusso per la definizione del contesto e delle regioni di interesse (YOLO)
- Sistema di ragionamento che unisce i due flussi in un’informazione strutturata (Amazon Berock)
- Data storage
- Bucket che registra dati e metadati (S3)
- Layer di interazione utente (Step Functions, Amazon Atena, DynamoDB)
- Sistema di NLP per riconoscere l’intenzione dell’utente (Amazon Bedrock)
- Ricerca nel bucket
- Risposta tramite LLM e fornitura partizione schema di interesse
What is in for me them?
I benefici registrati, come per tutti gli use case di AI generativa, sono principalmente legati a tempo risparmiato per inostri cari progettisti e progettiste. Quindi maggiore produttività, maggiore accessibilità delle informazioni, maggiore qualità della documentazione generata.
Nella presentazione del caso d’uso i saving stimati in base ai primi risultati ottenuti sono estremamente promettenti:
- Una riduzione del tempo per recuperare le informazioni del 90%
- Una migliore valorizzazione del patrimonio informativo disponibile nella documentazione tecnica, con un 50% di incremento nelle ricerche
- Una diminuzione degli errori dovuti a typos del 75%
- Una riduzione del 10% della generazione di progetti per componenti esistenti
Per un’azienda che basa il suo core business sull’innovazione di prodotto, riuscire a valorizzare quanto già sviluppato e poter concentrare tempo e competenze del team di progettazione sulle attività che portano a vera innovazione e non alla generazione di componenti doppi non è male.
Un mosaico di strumenti
Ne abbiamo già parlato molte volte. L’AI generativa da sola è molto divertente, ma rischia di diventare un giocattolo costoso. Però inserire un large language model capace di capire il contesto in modo flessibile in un ecosistema di altri sistemi specializzati che estraggono informazioni specifiche utili per fornire quel famoso contesto è un modo potente per generare valore e aprire la strada ad applicazioni prima inimmaginabili.
