Benvenuti in questo canale dedicato alla proiezione ortogonale,
al magico mondo delle toleranze e ai fantastici render 3D.
Sono Daniele Borghi,
disegnatore tecnico CAD 3D e podcaster.
Preparatevi a salire a bordo,
perché qui non siamo solo appassionati di disegno tecnico,
ma anche di tecnologia.
Questo è il Tiraline,
il podcast che vi porterà in un viaggio affascinante attraverso il mondo del CAD,
condividendo esperienze,
consigli e tante notizie.
Siete pronti?
Allacciate le cinture!
La nostra destinazione è la creatività e la passione per il disegno tecnico.
Bentornati amici Tiraline!
Siamo arrivati alla puntata numero 96 e come ormai di tradizione sto registrando di domenica sera,
anzi è quasi notte,
insomma sono le 11 di sera e tutti quanti sono a letto e finalmente
riesco a ritagliarmi un po' di spazio per registrare e fare
anche mente locale su cosa raccontarvi in questo episodio.
Oggi parliamo principalmente di intelligenza artificiale,
ancora direte voi,
ma perché soprattutto sull'apporto che gli ingegneri possono dare nell'addestramento delle intelligenze artificiali aziendali.
In questo modo loro possono ridurre le famose allucinazioni di questi algoritmi.
Le nostre amate e anche a volte temute LLM possono essere secondo me un grande aiuto nella produzione e nella produttività,
ma solo però se usate con criterio.
Tra l'altro vi segnalo anche un articolo interessante che analizza come
le piccole e medie imprese italiane siano ancora parecchio indietro
nell'adozione dell'intelligenza artificiale e qui apro una parentesi.
Lo so che c'è chi si sente sopravfatto da questa invasione dell'intelligenza artificiale in ogni settore,
ma ignorarla non è secondo me una strategia.
Restare ancorati a frasi del tipo "quello che c'è adesso funziona perché cambiarlo" rischia di farci perdere il treno dell'innovazione.
Chi integrerà l'intelligenza artificiale nei propri processi aziendali,
soprattutto nel nostro campo,
quello della progettazione,
avrà sicuramente un vantaggio competitivo in futuro e non da poco.
Infine parleremo di dati per la trasformazione,
concentrandoci questa volta su quelli relativi al dimensionamento e tolleranze geometrica perché,
facciamo uno spoiler,
continuano ad essere fondamentali per garantire la qualità dei prodotti e la loro gestione.
Lo so,
un intro un po' lunga,
lo ammetto,
ma adesso partiamo con l'episodio.
Devo ammettervi che ho trovato veramente interessante questo articolo
che parla delle strategie che gli ingegneri possono adottare per
mitigare le allucinazioni nei modelli di intelligenza artificiale.
Vi lascerò poi il link perché merita una lettura un po' più approfondita.
Io vi porto una specie di riassunto di quello che ho letto e di quello che ho capito.
Come stiamo vedendo e sperimentando,
i modelli di intelligenza artificiale,
in particolare quelli di linguaggio di grande dimensione,
cioè gli LLM,
hanno fatto passi da gigante nei vari campi,
come la generazione di testo e il question answering.
Tuttavia presentano ancora problemi significativi,
tra cui il fenomeno delle allucinazioni,
dove il modello produce informazioni false o fuorvianti.
Questo rappresenta una sfida critica,
soprattutto in applicazioni sensibili,
come la progettazione,
dove la diffusione di informazioni errate può anche avere gravi conseguenze nella produzione di macchinari.
Per affrontare questo problema,
i ricercatori stanno esplorando diverse strategie.
Una di queste è l'uso delle Epistemic Neural Networks o NNN,
sono piccole reti neurali aggiunte o modelli preaddestrati per migliorare le stime di incertezza e ridurre le allucinazioni.
Un recente studio ha applicato le NNN al modello LLM 27B,
combinandole con tecniche di decodifica contrastativa,
ottenendo risultati promettenti nella riduzione delle allucinazioni su dataset specifici.
La decodifica contrastiva è una tecnica usata per migliorare l'accuratezza dei testi generati dai modelli di linguaggio.
Funziona confrontando più opzioni di output durante il processo di generazione e scegliendo la più coerente e attendibile.
In pratica,
il modello viene guidato a evitare risposte che sembrano plausibili ma che in realtà sono scorrette o fuori contesto.
E' stato interessante anche scoprire cosa non le NNN sono una tecnica recente,
quindi ha introdotto un livello di consapevolezza dell'incertezza nei modelli di EA.
Sono integrate nel modello principale e valutano il grado di fiducia di una risposta generata.
Se un modello è insicuro su una risposta,
queste NNN possono segnalare il problema e prevenire la generazione di informazioni errate.
Un'altra delle strategie utilizzate è il contrasting decoding
che confronta il comportamento di un modello più grande
e avanzato con uno più piccolo e più conservativo.
Il modello avanzato propone diverse opzioni di output,
mentre quello più semplice aiuta a filtrare le risposte meno affidabili,
scartando quelle che potrebbero essere delle allucinazioni.
Come funziona?
Immaginate di avere due versioni di uno stesso modello di intelligenza artificiale.
Abbiamo un modello grande e avanzato che è molto creativo e capace di generare testi molto complessi.
E' un modello più piccolo e prudente,
meno creativo ma più preciso e conservativo.
Quando l'LM deve generare una risposta,
il modello grande propone diverse opzioni,
alcune corrette e altre potenzialmente sbagliate.
Il modello più piccolo agisce come un filtro,
confrontando le risposte e aiutando a selezionare quelle più affidabili.
Perché è utile questa strategia?
Perché il problema principale degli LLM è che a volte inventano delle risposte molto credibili ma errate,
quindi quelle che chiamiamo allucinazioni.
Il contrasting decoding sfrutta il confronto tra due modelli per evitare questi errori,
facendo quindi emergere solo le informazioni più "affidabili".
Un esempio concreto che ho trovato era se si chiede a un LLM chi ha inventato il telefono,
il modello avanzato potrebbe dire Alexander Graham Bell nel 1876,
la risposta giusta,
ma potrebbe anche inventare questa,
cioè Nikola Tesla ha brevettato il telefono nel 1892.
Il modello più piccolo,
che è più preciso e meno propenso a fare errori,
aiuta a scartare l'opzione sbagliata mantenendo quella solo corretta.
Il contrasting decoding è come avere un editor che aiuta la IA a evitare gli errori,
migliorando poi la qualità e l'affidabilità delle risposte.
Infine,
un'altra area di ricerca si concentra sulla classificazione e mitigazione delle allucinazioni attraverso l'analisi delle loro cause profonde.
Quindi bisogna anche capire,
purtroppo gli ingegneri soprattutto,
dovranno capire le origini di queste allucinazioni e capendole è fondamentale anche sviluppare le strategie più efficace per mitigarle.
Questi approcci che vi ho elencato mirano a migliorare l'affidabilità complessiva degli LLM,
garantendo quindi poi che le informazioni generate siano più accurate e affidabili.
Come ben sapete mi trovo in mezzo a un vero ciclone con la trasformazione digitale che sta facendo creando un po' di problemi nella mia azienda.
E purtroppo mi trovo in questo turbine subendo un po' l'impreparazione da parte di chi dovrebbe invece indicare le linee guide.
E mi sono messo un po' alla ricerca di cinque possibili domande
per assicurarsi poi che tutto sia in ordine nei propri dati
GD&T che all'anagrafe sarebbero Geometric Data and Tolerance.
Perché mentre i produttori e gli ingegneri meccanici
adottano strumenti e tecniche di produzione digitale
per proiettare le loro organizzazioni nel futuro,
il dimensionamento e la toleranza geometrica,
quindi appunto le GD&T,
continuano a svolgere un ruolo cruciale nella qualità delle parti e nella gestione della produzione.
I principi fondamentali del GD&T si applicano indipendentemente dai progressi nei processi di produzione o nelle tecnologie di automazione,
è stato affermato da Israel Kabir che è il direttore delle
tecnologie emergenti dell'ASME che è l'associazione americana
che è un po' come la nostra ISO insomma per intenderci.
Tutti i processi introducono delle variabili rispetto al modello CAD ideale,
variazioni che devono essere gestite sia dal team di progettazione
che creano le specifiche sia dal team di produzione che le traducono
poi in una configurazione e un funzionamento della macchina.
Ma come si può garantire che i dati GD&T siano pronti per una transizione fluida verso a un nuovo modo di lavorare?
Ecco alcune domande le ho trovate in giro sempre per la rete e quindi ecco che ve le riporto.
Prima di tutto è se stiamo utilizzando uno standard coerente in tutta l'organizzazione perché la coerenza facilita la collaborazione,
garantisce che tutti parlano nello stesso linguaggio e comprendono chiaramente il significato di ogni simbolo.
Se i team di ingegneria utilizzano ancora una combinazione di standard formali e annotazione ad hoc,
è il momento di uniformare il modello digitale.
Allora,
sappiamo che attualmente ci sono due formati in uso,
uno è lo standard ASME Y14.5/2018 che è pubblicato dall'American Society of Mechanical Engineers e quindi punto l'ASME,
che è utilizzato da circa l'86% delle aziende manufatturiere statunitensi,
secondo il sondaggio del GD&T Basics ed è focalizzato sulla misurazione e verifica dei modelli di un prodotto.
L'altro è lo standard ISO,
che conosciamo benissimo,
Geometrical Product Specification,
GPS,
pubblicato dall'International Organization of Standardization,
l'ISO naturalmente,
che definisce sia le specifiche che la verifica delle geometrie di una parte,
oltre che alla calibrazione degli strumenti di controllo.
La seconda domanda è,
ma i dati GD&T sono incorporati nei modelli digitali?
Molti ingegneri combinano rendering 2D e 3D,
ma questo approccio ibrido può introdurre degli errori in comprensione degli ritardi.
Incorporando i dati GD&T nella definizione basata sul modello,
quindi sul BMD o nel gemello digitale,
le informazioni diventano parte di un unico artefatto coerente e facilmente accessibile.
Anche quando il progetto attraversa diverse reparti fino alla produzione,
i dati rimangono nel modello e qualsiasi modifica viene aggiornata in tempo reale.
La maggior parte delle aziende manufatturiere gestisce manualmente i file e le cartelle di dati di misurazione 3D.
Se la vostra azienda è ancora a metà strada tra la digitalizzazione e i vecchi metodi,
state probabilmente limitando e anche ostacolando qualsiasi altro ulteriore sviluppo e secondo me,
e come succede nel mio caso,
c'è veramente grandissima confusione.
La terza domanda è,
i dati GD&T sono posizionati in modo coerente nei modelli,
nei modelli digitali?
E allora,
i gemelli digitali o i modelli 3D virtuali non sono ancora onnipresenti nell'ingegneria,
ma questo,
oggi,
nel 2025,
è il momento giusto per sviluppare procedure solide e garantire una coerenza.
Secondo un sondaggio,
il 23% degli ingegneri o dei progettisti che incorporano i dati GD&T nei modelli,
lo fanno aggiungendoli direttamente nella sintassi,
mentre il 15% li integra nel modello semantico.
Più del metodo scelto,
è importante che l'organizzazione definisca una strategia chiara e la segue sempre con coerenza.
Avete mai pensato a come massimizzare i vantaggi dei vostri dati GD&T?
Un archivio dati solido,
coerente e standardizzato può aumentare profitti ed efficienza,
soprattutto efficienza.
Tuttavia,
per ottenere il massimo dei dati raccolti,
è essenziale definire una strategia per sfruttarli al meglio.
Ad esempio,
avete mai considerato l'integrazione di sensori dell'Internet of Things,
come si dice in italiano,
nei propri strumenti di calibrazione e ispezione?
Combinando questi sensori con i dati GD&T già disponibili nel modello,
tutta la reazione della progettazione può migliorare il processo di ispezione,
riducendo quindi al minimo l'inserimento manuale di dati.
Infine,
l'ultima domanda era,
avete sviluppato un sistema per individuare e correggere gli errori nei vostri dati GD&T?
Perché uno dei principali vantaggi del GD&T è la capacità di individuare rapidamente errori nei progetti e nei prodotti.
Più velocemente questi errori vengono identificati e corretti,
minori saranno gli sprechi e le inefficienze della produzione.
La vostra azienda ha un sistema in atto per gestire la revisione e la correzione dei progetti una volta rivelati errori durante un processo di verifica GD&T.
Una procedura ben strutturata aiuta sicuramente a evitare ritardi e costose rilavorazioni in futuro.
Mentre la digitalizzazione continua ad evolversi rapidamente nel settore manufatturiero,
anche i nostri metodi o strumenti dovrebbero seguirne il passo.
Per restare aggiornato bisogna sicurarsi di conoscere gli ultimi standard e valutare la possibilità,
se ci sono possibilità,
di frequentare anche corsi di formazioni GD&T per migliorare le proprie competenze da poi portare in azienda,
o se sei un CAD manager portare questi standard come linee guida per il team.
Ti è piaciuto l'episodio di questa settimana?
Se la risposta è sì,
allora abbiamo un piccolo favore da chiederti.
Andare su Apple Podcast o Spotify e lasciarci una recensione a 5 stelle,
accompagnata dal tuo feedback,
farebbe davvero la differenza per noi.
È uno dei modi migliori per far crescere il nostro podcast,
raggiungere più persone e continuare a migliorare.
Se poi ti va di supportarci ancora di più,
in descrizione trovi un link per fare una donazione tramite Paypal o Satispay.
Non abbiamo grandi pretese,
anche un piccolo contributo può aiutarci a portare avanti nuove idee e progetti per il podcast.
Ogni gesto di supporto,
grande o piccolo,
è per noi davvero importante.
Grazie mille per essere stati con noi anche oggi.
A presto!
Parliamo ancora di intelligenza artificiale con un articolo molto interessante che vi lascerò sempre.
Il link è nella descrizione.
Qui parliamo dell'adozione dell'intelligenza artificiale,
l'IA,
in Italia,
evidenziando soprattutto le piccole e medie imprese,
come sono in ritardo rispetto alle grandi aziende.
Perché,
come più volte ho detto su questo canale,
il problema dell'adozione delle moderne intelligenze artificiali,
anche dei moderni sistemi di digitalizzazione e di tutta la trasformazione digitale,
non riguarda sicuramente le grandi aziende che dispongono sicuramente di team enormi,
di una struttura molto più organizzata,
ma soprattutto anche di una buona dose di disponibilità economica.
Al contrario,
in Italia,
diciamo che ormai di grossi aziende ce ne sono ben poche,
ma soprattutto l'Italia si fonda su un gran numero di aziende di piccole e medie imprese,
quindi di un modello un po' più ridotto di aziende,
numericamente e in grandezza.
Nonostante tutto sono anche aziende che lavorano molto con l'estero,
con grandissime quantità di esportazione.
Peccato che...
Infatti nel 2024 il mercato italiano della IA ha raggiunto l'1,2 miliardi di euro,
crescendo del 58% rispetto all'anno precedente,
quindi al 2023.
Questo sviluppo è stato trainato principalmente dalle sperimentazioni che includono l'IA generativa,
rappresentando quindi il 43% del valore totale,
mentre il restante 57% è costituito da soluzioni di intelligenza artificiale tradizionali.
I settori più attivi in termini di spesa media per azienda sono le telecomunicazioni,
i media,
le assicurazioni,
seguite dall'energia,
dalle risorse e dalla finanza delle banche,
con notevole accelerazioni nel settore GDO Retail.
La pubblica amministrazione rappresenta solo il 6% del mercato,
con un tasso di crescita però almeno di superiore al 100%,
quindi qualcosa si muove nella pubblica amministrazione.
Le imprese però italiane stanno adottando l'IA molto più lentamente rispetto agli altri paesi europei.
L'82% delle grandi aziende ha almeno valutato un progetto di intelligenza artificiale,
contro una media europea dell'89% e il 59% ha già un progetto attivo rispetto al 69% della media europea,
posizionando quindi l'Italia all'ultimo posto tra i paesi analizzati.
Tuttavia,
tra le aziende che utilizzano l'intelligenza artificiale,
una su quattro ha già implementato progetti a regime.
Inoltre il 65% delle grandi aziende attive nell'intelligenza artificiale stanno sperimentando anche nel campo della IA generativa,
principalmente attraverso sistemi di conversazionali a supporto degli operatori interni.
Per quanto riguarda gli aspetti etici e la conformità normativa delle iniziative di intelligenza artificiale,
il percorso è ancora lungo.
Solo il 28% delle grandi aziende coinvolte nei progetti di intelligenza artificiale ha adottato misure concrete.
Il 52% dichiara di non aver compreso appieno il quadro normativo,
in particolare a riferimento alla IA Act.
L'Italia si distingue nell'utilizzo di strumenti di IA generativa pronti all'uso.
Il 53% delle grandi aziende ha acquistato licenze per strumenti come ChatGPT o Microsoft Copilot,
superando Francia,
Germania e Regno Unito.
Tra queste il 39% ha riscontrato un aumento della produttività,
anche se un ulteriore 48% non ha ancora valutato quantitativamente gli impatti dell'intelligenza artificiale sulla produzione.
Le grandi aziende italiane sono consapevoli dei rischi di un utilizzo non controllato,
infatti il 40% ha implementato linee guida e regole per l'uso,
e nel 17% dei casi è stato vietato l'uso di tool non approvati per evitare fenomeni di shadow IA.
Per quanto invece riguarda le PMI,
solo il 7% delle piccole e il 15% delle medie imprese hanno avviato progetti di intelligenza artificiale.
Nonostante la forte crescita del mercato dell'IA in Italia,
le PMI rimangono indietro rispetto alle grandi aziende nell'adozione di questa tecnologia.
Secondo i dati dell'Osservatorio Artificial Intelligence del Politecnico di Milano,
il 58% delle PMI si dichiara interessato all'IA,
attratto soprattutto dalla diffusione di strumenti di IA generativa,
ma l'adozione concreta poi rimane limitata per svariate paure e soprattutto per la limitata disponibilità economica.
E siamo arrivati alla fine di questo breve episodio.
Grazie per avermi ascoltato,
ma prima di salutarvi vi devo ricordare un paio di cose.
La prima è decisamente ludica,
troverete il link in descrizione perché,
udite udite,
il sottoscritto quasi per gioco ha partecipato al secondo festival della canzone artificiale,
sponsorizzato da Runtimer Network,
e senza alcuna pretesa mi sono ritrovato in finale.
Mentre state ascoltando questo episodio,
molto probabilmente è già il 24 febbraio 2025,
e la finale sarà in corso.
Dopo che sarà stata ascoltata l'ultima canzone,
partirà la fase di voto.
Non posso sicuramente mandarvi il link adesso in anticipo,
ma se riuscite a seguire l'evento e votare per me,
ve ne sarò eternamente grato.
Ricordatevi,
io mi chiamo Daniele Borghi e la mia canzone è "Federi senza scelta".
Grazie mille in anticipo.
La seconda riguarda il traguardo del centesimo episodio,
che si sta avvicinando a grandi passi.
Ci sarà una sorpresa,
sia per come sarà realizzato l'episodio,
sia per il futuro di questo canale.
Non voglio anticiparvi nulla,
ma vi assicuro che ne varrà la pena.
E a questo punto è davvero tutto.
Ci sentiamo alla prossima settimana.
Lunga vita e prosperità a tutti.