IA nell’operations management

Un nuovo articolo di Paneido sulla rivista Logistica Management chiarisce le modalità di adozione dei sistemi LLM al servizio dell’operations management.

Da quando è stato lanciato ChatGPT, nell’autunno 2022, il mondo dell’intelligenza artificiale, e di quella generativa in particolare, continua a proporre ogni settimana significative novità ed evoluzioni. Come può applicarsi tutto questo all’operations management? I LLM come quelli di OpenAI, Google o Anthropic operano in cloud e sono addestrati su basi di conoscenza generali. Per utilizzarli in un contesto aziendale richiedono ulteriore addestramento su documentazione e dati di business e devono essere messi in condizione di interagire con il contesto aziendale. I timori associati alla diffusione di dati aziendali verso sistemi esterni all’azienda hanno dato impulso allo sviluppo di sistemi LLM locali, che possono girare su risorse interne all’azienda mentre la necessità di far interagire i LLM con altri applicativi ha incentivato una certa standardizzazione nelle modalità di comunicazione tra LLM e altri tool, che possono essere anche altri LLM.

Business software che usano i LLM come funzionalità

Diversi business software hanno subito evoluzioni che consentono loro di interrogare sistemi LLM. Con questo tipo di integrazione, il LLM può supportare l’utente nell’utilizzo di un business software suggerendogli le attività da fare o le informazioni a cui prestare attenzione: evidenziare criticità in un piano di produzione per un APS o un ERP, suggerire azioni correttive in un MES, validare transazioni, automatizzare data entry mediante estrazione di dati da pdf o altri tipi di documenti (l’evoluzione degli OCR). Per questo ultimo tipo di applicazione sono stati sviluppati degli LLM specializzati che possono essere installati e configurati in azienda

LLM che usano altri applicativi come tool esterni

Questa modalità di utilizzo degli LLM è l’opposta della precedente: l’utente non si interfaccia più con l’applicativo ma direttamente con il LLM. In ambito business e nel supply chain management questo approccio è sicuramente quello più stimolante per gli scenari futuri che può dischiudere ed ha due livelli di implementazione con diverse ambizioni

LLM come interfaccia utente di tool preesistenti

E’ possibile usare i LLM come un’interfaccia utente alternativa dei vari MES, WMS, APS, ERP che per i LLM diventano dei tool esterni con cui interagire. In questo modo tali applicativi diventano utilizzabili anche da chi non è stato formato sul loro utilizzo e su come leggere le loro videate perché il chatGPT di turno fa da intermediario. Per esempio, possiamo chiedere ad un LLM una data di consegna di un possibile nuovo ordine cliente. Il LLM non ha distinte basi, cicli e il nostro piano di produzione corrente al suo interno per rispondere in autonomia, ma può mandare la richiesta al nostro APS, far elaborare la risposta e poi presentarcela in linguaggio naturale, senza che ci serva sapere come districarci tra le videate dell’APS. Con diversi sistemi questo tipo di integrazione può essere realizzata agevolmente, purchè consentano che le loro funzioni siano invocate dall’esterno dell’applicazione e purchè forniscano comunque risposte realistiche ed in tempi compatibili con la pazienza dell’utente di attendere una risposta. Il LLM può essere usato anche per richieste non pre-configurate come sono le richieste di datazione. Cioè può rispondere a qualunque domanda riguardante il piano di produzione se il software di pianificazione o il MES è in grado di eseguire codice (per esempio SQL o Python) generato dinamicamente dal LLM. L’azienda Linea Light ha adottato questo approccio per far evolvere i propri processi: ad un già rodato sistema di order promising in cui l’utente inserisce le richieste di datazione tramite form, ha affiancato un’interfaccia in linguaggio naturale che, oltre alla datazione degli ordini cliente, permette di recuperare informazioni relative al piano di produzione e acquisto senza intermediazione di utenti. Le tecnologie abilitanti di questi processi sono il LLM e l’APS Cowry di Paneido. Il LLM traduce le richieste dell’utente in Python e fa eseguire il codice generato all’APS che restituisce le informazioni richieste.

Se il tool di pianificazione non è in grado di eseguire codice generato dinamicamente allora l’unico approccio possibile è definire un set di domande a cui il tool può rispondere, realizzare le funzioni che forniscono le risposte a tali domande e accettare che il tool, via LLM, risponda solo a queste domande e non ad altre

LLM come agenti

Usare un LLM come interfaccia utente ad un business software lascia comunque all’utente il ruolo di decisore. Una integrazione più spinta tra LLM e contesto aziendale è quella che porta i LLM ad essere degli agenti. Gli agenti di intelligenza artificiale sono programmi software autonomi che utilizzano l’intelligenza artificiale per eseguire attività e raggiungere obiettivi per conto degli utenti o di altri sistemi. Quando si parla di agenti significa mettere in grado un LLM di agire, cioè di usare tool esterni (altri software generalmente) sia per recuperare informazioni, cioè come interfaccia utente, ma anche per eseguire attività. Per esempio, nel processo di pianificazione il LLM potrebbe far aggiornare il piano acquisti e quello di produzione dal tool a lui esterno (APS per esempio) al verificarsi di determinati eventi (o con una periodicità definita) e trasmettere i nuovi ordini al ERP, ai fornitori e al reparto produttivo se messo nella condizione di interoperare con ERP, e-mail e MES rispettivamente. Oppure sollecitare direttamente al fornitore la consegna di un ordine ormai in ritardo. Gli agenti AI, per la loro futura diffusione e affermazione, hanno gli stessi ostacoli dei sistemi di guida autonoma dei veicoli: devono dimostrarsi affidabili. Tanto più possono esserlo quanto più si crea in azienda una vera integrazione dei processi e delle informazioni.

Nella scelta di un MES, APS, ERP, WMS, ma anche di una macchina, diventerà sempre più importante che questo sia in grado di comunicare con i LLM in modo agevole, con minimo addestramento aggiuntivo. Inoltre negli ultimi mesi si è andato affermando il protocollo MCP (model context protocol) che crea uno standard di comunicazione tra LLM ed altri tool. Il MCP, creato da Anthropic a fine 2024, sta diventando nel mondo dell’intelligenza artificiale quello che i connettori USB sono nella connettività di periferiche hardware: cioè un modo standardizzato per collegare LLM e tool diversificati.

Alcune aspettative verso i sistemi di intelligenza artificiale generativa si sono nel tempo ridimensionate. Per esempio, l’approccio usato dai LLM applicato al forecasting non dà risultati soddisfacenti [https://arxiv.org/abs/2406.16964] ed è in generale inverosimile che un LLM calcoli un piano di produzione meglio di un APS perché non è stato addestrato per questo. Ciononostante, dotare il LLM di tool esterni, anche intercambiabili, offre la massima flessibilità ed indica una via praticabile per l’adozione di sistemi di intelligenza artificiale in azienda. Si può iniziare preparando un sistema per l’accesso in linguaggio naturale alla documentazione tecnica sui prodotti per gli operatori in fabbrica o per l’assistenza ai clienti e proseguire aggiungendo funzionalità di order promising connettendo la piattaforma a sistemi MES o APS.

Sicuramente uno degli effetti positivi dell’adozione di LLM e agenti in azienda sarà una maggiore integrazione delle informazioni a sistema e una migliore gestione della documentazione aziendale, premessa indispensabile per avere agenti affidabili e aziende sempre più proattive.

Cowry e ChatGPT per le vendite

E’ il sogno di ogni imprenditore e responsabile commerciale poter dare una data di consegna tempestiva e affidabile ad un cliente. Invece, nella gran parte delle realtà, ci si accontenta di risposte approssimative, basate su tempi di consegna convenzionali e poco verificati.

👉 Questa situazione è destinata a cambiare radicalmente grazie al connubio di sistemi di IA generativa come ChatGPT e i moderni APS.
Nel video che segue è presentata un’integrazione tra ChatGPT e l’APS Cowry.

💡 Si è fatto ricorso alle possibilità offerte da ChatGPT di integrare la sua base di conoscenza ed è stato istruito sul fatto che per rispondere a certe domande può ricorrere a Cowry con i dati aziendali (la base dati dell’azienda è in Cowry, non in ChatGPT).

Cowry mette a disposizione i suoi motori di calcolo a capacità finita e il pegging completo degli ordini per determinare in modo rapido e documentabile una data di consegna.

✅ E’ Cowry che calcola la data di consegna, non ChatGPT, ma quest’ultimo consente di gestire in linguaggio naturale le richieste di datazione o eventuali altre domande riguardanti il piano di produzione e acquisti

 

Paneido su Logistica Management

Paneido su Logistica Management: da chatGPT alla logistica

L’intelligenza artificiale viene da lontano: da oltre sessanta anni viene sviluppata con alterni moti di entusiasmo e successi ma sicuramente è negli ultimi anni che, grazie alla disponibilità di elevata potenza di calcolo a buon mercato e di nuovi metodi di elaborazione, ha cominciato ad essere rilevante per molti utilizzi anche nel mondo business e nei processi di operations management.

Le tecniche di machine learning sono state applicate negli ultimi anni in modo proficuo al riconoscimento automatico di immagini e al forecasting (demand planning, gestione manutenzione programmata) ma sicuramente il risultato più eclatante degli ultimi mesi, per la sorprendente efficacia e la fruibilità anche per l’utente finale, è rappresentata dalla IA generativa e dai Large Language Models (LLM), cioè la tecnologia di elaborazione su cui si basa chatGPT di OpenAI. Da quando chatGPT si è reso disponibile al pubblico a fine 2022, l’intelligenza artificiale è diventata fruibile facilmente e per scopi non verticali per qualunque utente e ogni azienda di software ha cominciato a tracciare un percorso per lo sfruttamento di queste nuove tecnologie.

Un forte impulso che riguarda l’evoluzione di tutti i software, non solo quelli di logistica e supply chain management, è legato al fatto che le tecnologie LLM aumentano in modo significativo la produttività dei programmatori e consentiranno una crescita delle funzionalità dei software di supply chain management come mai si è vista in passato, rendendo in parte meno critica la scarsità di sviluppatori sul mercato. Vi sono altri due fronti su cui le tecnologie LLM possono migliorare i processi di operations management e l’uso dei software.

Il primo riguarda il supporto operativo agli utenti con assistenti virtuali. Queste applicazioni non sono una novità ma i modelli LLM permettono di aumentare l’articolazione e l’efficacia del dialogo con l’utente finale. I modelli LLM assimilano una base di conoscenza e rispondono alle domande degli utenti in linguaggio naturale e con inferenze molto interessanti e utili. Per chatGPT tale base di conoscenza è condivisa con tutti gli utenti, non specializzata e ferma al 2021 ma è possibile integrare tale base di conoscenza o usare modelli LLM privati in cui il set di informazioni utilizzato comprende quelle aziendali: informazioni relative ai processi logistici, alle procedure di controllo dei prodotti o altro.

Per chi produce business software, il modo più diretto per creare un assistente virtuale per una applicazione è dare in pasto al modello LLM il manuale di istruzioni dell’applicazione stessa (questo poi è un incentivo per tutte le software house a migliorare e tenere aggiornata la documentazione).

L’altro fronte sui cui già diversi player stanno ottenendo risultati è legato alla possibilità di alimentare un sistema di IA con dati e tabelle e, facendo una richiesta in linguaggio naturale, ottenere una risposta sempre in linguaggio naturale riguardante i dati stessi. Per esempio: abbiamo notizia da un fornitore che la sua consegna subirà un ritardo; quali ordini cliente sono affetti da tale ritardo e quando potremo evadere tali consegne? Oppure, nell’ambito dell’order promising, chiedere una data di consegna del nostro ordine di acquisto interrogando un LLM integrato con un APS.

Il futuro pare dischiudere molte opportunità ma vanno prese seriamente in considerazione anche alcune criticità riguardo l’adozione delle funzionalità di intelligenza artificiale in azienda, almeno per pianificare un percorso di adozione realistico.

  • Affidabilità delle risposte: ad oggi sia chatGPT che altri sistemi LLM non danno sempre risposte affidabili, sia per lacune della documentazione assimilata dal modello LLM che per limiti degli stessi modelli. L’evoluzione della tecnologia migliorerà la situazione ma nel frattempo serve una supervisione da parte di attori umani a tali sistemi. Non bisogna comunque dimenticare che l’IA può sbagliare ma anche gli umani sbagliano: invece di ricercare contrapposizioni tra i due attori è utile considerare che persone e tecnologia possono fare grandi cose assieme, da sempre.
  • Privatezza dei dati: per applicazioni aziendali è indispensabile che il modello LLM venga alimentato con dati propri e questi non devono essere messi in condivisione con concorrenti. I servizi di IA forniti tramite cloud computing stanno man mano fornendo soluzioni per la privatezza dei dati ma, per quantità ingenti, vanno valutati anche modelli completamente privati se in prospettiva non richiederanno potenze di calcolo troppo elevate per il training e il fine tuning.
  • Funzionalità delle applicazioni interfacciate: le funzionalità di intelligenza artificiale possono completare le funzionalità dei software di supply chain management e operations management ma non ha senso aspettarsi nel medio termine che possano sostituirsi a queste. Per esempio, per rispondere alla domanda già citata “quali ordini cliente sono impattati da un ritardo sulle consegne della materia prima X” è razionale disporre di un APS con full pegging e interfacciarlo con il modello LLM invece di aspettarsi che il modello LLM se la cavi completamente da solo a rispondere.
  • Siamo in una fase in cui l’IA è in hype grazie soprattutto a chatGPT. Ma non tutto ciò che è nuovo è sicuramente meglio di ciò che è vecchio: per esempio nell’ambito del forecasting i metodi statistici (ETS, ARIMA) sembrano funzionare ancora meglio di quelli di machine learning (si vedano gli studi di Makridakis). Inoltre i produttori di software reclamizzano soluzioni già pronte basate su IA mentre spesso si tratta di poco più di proof of concept o applicazioni custom, la cui validità in altri contesti è tutta da verificare.
  • Piattaforma tecnologica: molti servizi di IA sono fruibili tramite web service o REST API e questo rende integrabile senza barriere significative l’IA in azienda e con i software già presenti sul mercato, almeno finché i dati da scambiare sono limitati. Per applicazioni più articolate è utile disporre di applicazioni aziendali che condividono la stessa tecnologia e i protocolli di scambio dati attualmente più usati nell’ambito delle piattaforme di intelligenza artificiale (per esempio il linguaggio Python).

 

 

Paneido
Paneido è sinonimo di vent’anni di esperienza con i sistemi di pianificazione e simulazione. La nostra filosofia è rendere semplici e veloci le attività quotidiane e praticabili le soluzioni ai problemi meno ricorrenti: phase-in/out di prodotti, adeguamento capacità produttiva, ottimizzazioni, ecc.
Ultime Pubblicazioni

Questo sito web utilizza cookies per garantire il corretto funzionamento dei servizi offerti e per migliorare l’esperienza d’uso delle applicazioni on-line; può contenere componenti multimediali di terze parti, i quali possono generare a loro volta cookies sui quali non è possibile avere controllo; per ulteriori informazioni consulta la nostra informativa.