AI nel processo di pianificazione

Ogni settimana ci sono significative novità dal mondo dell’AI e ci si può chiedere quando un LLM (cioè un motore come quello dietro ChatGPT) potrà sostituire il planner in azienda. Finchè il processo di pianificazione sarà condizionato da informazioni fuori sistema, note solo al planner (contenuto di telefonate, post-it, ecc) sarà difficile che questo avvenga completamente ma possiamo comunque chiarire in quali modi già oggi l’intelligenza artificiale generativa (GenAI) può intervenire nel processo di pianificazione e schedulazione e con quali benefici.

 

Forecasting

Finora i metodi di forecasting basati sui LLM non hanno ottenuto performance migliori di metodi più tradizionali secondo la letteratura scientifica (https://arxiv.org/abs/2406.16964 e https://arxiv.org/pdf/2412.19286).

 

Tool che usano i LLM

Qualunque sia il tool, cioè il software, che stai utilizzando per pianificare produzione e acquisti (ERP, foglio elettronico, APS), puoi farti aiutare da un LLM in alcune tue attività, sia per ridurre i tempi operativi che gli errori. Il tipo di integrazione realizzabile tra gli strumenti qui fa la differenza e condiziona la user experience. Ancora più importante in questa integrazione è decidere se vuoi utilizzare un LLM locale (ideale per mantenere i dati in azienda) o esterno come quelli di OpenAI o Anthropic.
In Cowry, l’APS di Paneido, puoi chiedere ad un LLM di aiutarti a preparare uno script per integrare i dati con altri sistemi o per automatizzare alcune operazioni. Puoi anche chiedere da Cowry al LLM che ti aiuti a chiarire situazioni del piano senza cambiare ambiente, cioè senza copiare e incollare nella chat del LLM i dati di contesto della domanda, perchè questi gli vengono passati in modo automatico tramite selezioni in Cowry, diversamente da quanto si può fare usando un ERP, un foglio elettronico od altri APS. In Cowry il collegamento con un LLM è realizzabile come un plugin scritto in Python ed adattabile alla specifica realtà. Anche il LLM da utilizzare può essere scelto all’interno del plugin.

 

LLM che usano i tool

Questo approccio è sicuramente quello più stimolante per gli scenari futuri che può dischiudere ed ha due livelli di implementazione con diverse ambizioni

LLM come interfaccia utente del tool

E’ possibile usare i LLM come un’interfaccia utente alternativa dei tool, che diventano così utilizzabili anche da chi non è stato formato sull’utilizzo dei tool e su come leggere le loro videate. Per esempio, possiamo chiedere ad un LLM una data di consegna di un possibile nuovo ordine cliente. Il LLM non ha distinte basi, cicli e il nostro piano di produzione corrente al suo interno per rispondere in autonomia, ma può mandare la richiesta al nostro APS, far elaborare la risposta e poi presentarcela verbalmente senza che ci serva sapere come districarci tra le videate dell’APS. Con diversi sistemi questo può essere realizzato agevolmente, purchè consentano che loro funzioni siano invocate dall’esterno dell’applicazione e purchè forniscano comunque risposte realistiche ed in tempi compatibili con la pazienza dell’utente di attendere una risposta. Il LLM può essere usato anche per richieste non pre-configurate come le richieste di datazione (qualunque domanda riguardante il piano) se il software di pianificazione è in grado di eseguire codice (per esempio SQL o Python) generato dinamicamente dal LLM. Se il tool di pianificazione non è in grado di eseguire codice generato dinamicamente allora l’unico approccio possibile è definire un set di domande a cui il tool può rispondere, realizzare le funzioni che forniscono le risposte a tali domande e accettare che il tool, via LLM, non possa rispondere a domande diverse

LLM come agente

Quando si parla di agenti significa mettere in grado un LLM di agire, cioè di usare tool esterni (altri software generalmente) sia per recuperare informazioni, cioè come interfaccia utente, ma anche per eseguire attività. Per esempio, nel vostro processo di pianificazione il LLM potrebbe far aggiornare il piano acquisti e quello di produzione al tool a lui esterno (APS per esempio) al verificarsi di determinati eventi (o con una periodicità definita) e trasmettere i nuovi ordini al ERP, ai fornitori e al reparto produttivo se messo nella condizione di interoperare con ERP, e-mail e MES rispettivamente. Oppure sollecitare direttamente al fornitore la consegna di un ordine ormai in ritardo. In questo contesto il vantaggio di disporre dell’APS Cowry anzichè di altri software è decisivo perchè può eseguire codice Python generato dinamicamente dal LLM e praticamente ogni LLM sa già creare codice Python. Con APS che usano solo SQL o linguaggi proprietari per eseguire operazioni nell’applicazione, l’attività di configurazione è molto più onerosa sia per il produttore dell’APS che per le aziende che li utilizzano

 

Presto o tardi qualunque azienda intraprenderà un progetto di adozione di un LLM al proprio interno per supportare diversi processi. Per esempio, usare un LLM per il supporto ai propri clienti significa dotarlo delle conoscenze per rispondere a domande sui prodotti, sulle procedure di reso o di pagamento. Mettere nelle condizioni tale LLM di rispondere anche a domande sulle date di consegna dei prodotti e dei ricambi è un valore aggiunto se si dispone di strumenti, come l’APS Cowry, che possono essere integrati agevolmente con i LLM e con i sistemi esistenti in azienda.

Paneido su “Il Sole 24 Ore”

Cowry è un APS moderno e performante basato sull’ecosistema Python

Cowry e ChatGPT per le vendite

E’ il sogno di ogni imprenditore e responsabile commerciale poter dare una data di consegna tempestiva e affidabile ad un cliente. Invece, nella gran parte delle realtà, ci si accontenta di risposte approssimative, basate su tempi di consegna convenzionali e poco verificati.

👉 Questa situazione è destinata a cambiare radicalmente grazie al connubio di sistemi di IA generativa come ChatGPT e i moderni APS.
Nel video che segue è presentata un’integrazione tra ChatGPT e l’APS Cowry.

💡 Si è fatto ricorso alle possibilità offerte da ChatGPT di integrare la sua base di conoscenza ed è stato istruito sul fatto che per rispondere a certe domande può ricorrere a Cowry con i dati aziendali (la base dati dell’azienda è in Cowry, non in ChatGPT).

Cowry mette a disposizione i suoi motori di calcolo a capacità finita e il pegging completo degli ordini per determinare in modo rapido e documentabile una data di consegna.

✅ E’ Cowry che calcola la data di consegna, non ChatGPT, ma quest’ultimo consente di gestire in linguaggio naturale le richieste di datazione o eventuali altre domande riguardanti il piano di produzione e acquisti

 

Paneido su Logistica Management

Paneido su Logistica Management: da chatGPT alla logistica

L’intelligenza artificiale viene da lontano: da oltre sessanta anni viene sviluppata con alterni moti di entusiasmo e successi ma sicuramente è negli ultimi anni che, grazie alla disponibilità di elevata potenza di calcolo a buon mercato e di nuovi metodi di elaborazione, ha cominciato ad essere rilevante per molti utilizzi anche nel mondo business e nei processi di operations management.

Le tecniche di machine learning sono state applicate negli ultimi anni in modo proficuo al riconoscimento automatico di immagini e al forecasting (demand planning, gestione manutenzione programmata) ma sicuramente il risultato più eclatante degli ultimi mesi, per la sorprendente efficacia e la fruibilità anche per l’utente finale, è rappresentata dalla IA generativa e dai Large Language Models (LLM), cioè la tecnologia di elaborazione su cui si basa chatGPT di OpenAI. Da quando chatGPT si è reso disponibile al pubblico a fine 2022, l’intelligenza artificiale è diventata fruibile facilmente e per scopi non verticali per qualunque utente e ogni azienda di software ha cominciato a tracciare un percorso per lo sfruttamento di queste nuove tecnologie.

Un forte impulso che riguarda l’evoluzione di tutti i software, non solo quelli di logistica e supply chain management, è legato al fatto che le tecnologie LLM aumentano in modo significativo la produttività dei programmatori e consentiranno una crescita delle funzionalità dei software di supply chain management come mai si è vista in passato, rendendo in parte meno critica la scarsità di sviluppatori sul mercato. Vi sono altri due fronti su cui le tecnologie LLM possono migliorare i processi di operations management e l’uso dei software.

Il primo riguarda il supporto operativo agli utenti con assistenti virtuali. Queste applicazioni non sono una novità ma i modelli LLM permettono di aumentare l’articolazione e l’efficacia del dialogo con l’utente finale. I modelli LLM assimilano una base di conoscenza e rispondono alle domande degli utenti in linguaggio naturale e con inferenze molto interessanti e utili. Per chatGPT tale base di conoscenza è condivisa con tutti gli utenti, non specializzata e ferma al 2021 ma è possibile integrare tale base di conoscenza o usare modelli LLM privati in cui il set di informazioni utilizzato comprende quelle aziendali: informazioni relative ai processi logistici, alle procedure di controllo dei prodotti o altro.

Per chi produce business software, il modo più diretto per creare un assistente virtuale per una applicazione è dare in pasto al modello LLM il manuale di istruzioni dell’applicazione stessa (questo poi è un incentivo per tutte le software house a migliorare e tenere aggiornata la documentazione).

L’altro fronte sui cui già diversi player stanno ottenendo risultati è legato alla possibilità di alimentare un sistema di IA con dati e tabelle e, facendo una richiesta in linguaggio naturale, ottenere una risposta sempre in linguaggio naturale riguardante i dati stessi. Per esempio: abbiamo notizia da un fornitore che la sua consegna subirà un ritardo; quali ordini cliente sono affetti da tale ritardo e quando potremo evadere tali consegne? Oppure, nell’ambito dell’order promising, chiedere una data di consegna del nostro ordine di acquisto interrogando un LLM integrato con un APS.

Il futuro pare dischiudere molte opportunità ma vanno prese seriamente in considerazione anche alcune criticità riguardo l’adozione delle funzionalità di intelligenza artificiale in azienda, almeno per pianificare un percorso di adozione realistico.

  • Affidabilità delle risposte: ad oggi sia chatGPT che altri sistemi LLM non danno sempre risposte affidabili, sia per lacune della documentazione assimilata dal modello LLM che per limiti degli stessi modelli. L’evoluzione della tecnologia migliorerà la situazione ma nel frattempo serve una supervisione da parte di attori umani a tali sistemi. Non bisogna comunque dimenticare che l’IA può sbagliare ma anche gli umani sbagliano: invece di ricercare contrapposizioni tra i due attori è utile considerare che persone e tecnologia possono fare grandi cose assieme, da sempre.
  • Privatezza dei dati: per applicazioni aziendali è indispensabile che il modello LLM venga alimentato con dati propri e questi non devono essere messi in condivisione con concorrenti. I servizi di IA forniti tramite cloud computing stanno man mano fornendo soluzioni per la privatezza dei dati ma, per quantità ingenti, vanno valutati anche modelli completamente privati se in prospettiva non richiederanno potenze di calcolo troppo elevate per il training e il fine tuning.
  • Funzionalità delle applicazioni interfacciate: le funzionalità di intelligenza artificiale possono completare le funzionalità dei software di supply chain management e operations management ma non ha senso aspettarsi nel medio termine che possano sostituirsi a queste. Per esempio, per rispondere alla domanda già citata “quali ordini cliente sono impattati da un ritardo sulle consegne della materia prima X” è razionale disporre di un APS con full pegging e interfacciarlo con il modello LLM invece di aspettarsi che il modello LLM se la cavi completamente da solo a rispondere.
  • Siamo in una fase in cui l’IA è in hype grazie soprattutto a chatGPT. Ma non tutto ciò che è nuovo è sicuramente meglio di ciò che è vecchio: per esempio nell’ambito del forecasting i metodi statistici (ETS, ARIMA) sembrano funzionare ancora meglio di quelli di machine learning (si vedano gli studi di Makridakis). Inoltre i produttori di software reclamizzano soluzioni già pronte basate su IA mentre spesso si tratta di poco più di proof of concept o applicazioni custom, la cui validità in altri contesti è tutta da verificare.
  • Piattaforma tecnologica: molti servizi di IA sono fruibili tramite web service o REST API e questo rende integrabile senza barriere significative l’IA in azienda e con i software già presenti sul mercato, almeno finché i dati da scambiare sono limitati. Per applicazioni più articolate è utile disporre di applicazioni aziendali che condividono la stessa tecnologia e i protocolli di scambio dati attualmente più usati nell’ambito delle piattaforme di intelligenza artificiale (per esempio il linguaggio Python).

 

 

Paneido
Paneido è sinonimo di vent’anni di esperienza con i sistemi di pianificazione e simulazione. La nostra filosofia è rendere semplici e veloci le attività quotidiane e praticabili le soluzioni ai problemi meno ricorrenti: phase-in/out di prodotti, adeguamento capacità produttiva, ottimizzazioni, ecc.

Questo sito web utilizza cookies per garantire il corretto funzionamento dei servizi offerti e per migliorare l’esperienza d’uso delle applicazioni on-line; può contenere componenti multimediali di terze parti, i quali possono generare a loro volta cookies sui quali non è possibile avere controllo; per ulteriori informazioni consulta la nostra informativa.