IA nell’operations management

Un nuovo articolo di Paneido sulla rivista Logistica Management chiarisce le modalità di adozione dei sistemi LLM al servizio dell’operations management.

Da quando è stato lanciato ChatGPT, nell’autunno 2022, il mondo dell’intelligenza artificiale, e di quella generativa in particolare, continua a proporre ogni settimana significative novità ed evoluzioni. Come può applicarsi tutto questo all’operations management? I LLM come quelli di OpenAI, Google o Anthropic operano in cloud e sono addestrati su basi di conoscenza generali. Per utilizzarli in un contesto aziendale richiedono ulteriore addestramento su documentazione e dati di business e devono essere messi in condizione di interagire con il contesto aziendale. I timori associati alla diffusione di dati aziendali verso sistemi esterni all’azienda hanno dato impulso allo sviluppo di sistemi LLM locali, che possono girare su risorse interne all’azienda mentre la necessità di far interagire i LLM con altri applicativi ha incentivato una certa standardizzazione nelle modalità di comunicazione tra LLM e altri tool, che possono essere anche altri LLM.

Business software che usano i LLM come funzionalità

Diversi business software hanno subito evoluzioni che consentono loro di interrogare sistemi LLM. Con questo tipo di integrazione, il LLM può supportare l’utente nell’utilizzo di un business software suggerendogli le attività da fare o le informazioni a cui prestare attenzione: evidenziare criticità in un piano di produzione per un APS o un ERP, suggerire azioni correttive in un MES, validare transazioni, automatizzare data entry mediante estrazione di dati da pdf o altri tipi di documenti (l’evoluzione degli OCR). Per questo ultimo tipo di applicazione sono stati sviluppati degli LLM specializzati che possono essere installati e configurati in azienda

LLM che usano altri applicativi come tool esterni

Questa modalità di utilizzo degli LLM è l’opposta della precedente: l’utente non si interfaccia più con l’applicativo ma direttamente con il LLM. In ambito business e nel supply chain management questo approccio è sicuramente quello più stimolante per gli scenari futuri che può dischiudere ed ha due livelli di implementazione con diverse ambizioni

LLM come interfaccia utente di tool preesistenti

E’ possibile usare i LLM come un’interfaccia utente alternativa dei vari MES, WMS, APS, ERP che per i LLM diventano dei tool esterni con cui interagire. In questo modo tali applicativi diventano utilizzabili anche da chi non è stato formato sul loro utilizzo e su come leggere le loro videate perché il chatGPT di turno fa da intermediario. Per esempio, possiamo chiedere ad un LLM una data di consegna di un possibile nuovo ordine cliente. Il LLM non ha distinte basi, cicli e il nostro piano di produzione corrente al suo interno per rispondere in autonomia, ma può mandare la richiesta al nostro APS, far elaborare la risposta e poi presentarcela in linguaggio naturale, senza che ci serva sapere come districarci tra le videate dell’APS. Con diversi sistemi questo tipo di integrazione può essere realizzata agevolmente, purchè consentano che le loro funzioni siano invocate dall’esterno dell’applicazione e purchè forniscano comunque risposte realistiche ed in tempi compatibili con la pazienza dell’utente di attendere una risposta. Il LLM può essere usato anche per richieste non pre-configurate come sono le richieste di datazione. Cioè può rispondere a qualunque domanda riguardante il piano di produzione se il software di pianificazione o il MES è in grado di eseguire codice (per esempio SQL o Python) generato dinamicamente dal LLM. L’azienda Linea Light ha adottato questo approccio per far evolvere i propri processi: ad un già rodato sistema di order promising in cui l’utente inserisce le richieste di datazione tramite form, ha affiancato un’interfaccia in linguaggio naturale che, oltre alla datazione degli ordini cliente, permette di recuperare informazioni relative al piano di produzione e acquisto senza intermediazione di utenti. Le tecnologie abilitanti di questi processi sono il LLM e l’APS Cowry di Paneido. Il LLM traduce le richieste dell’utente in Python e fa eseguire il codice generato all’APS che restituisce le informazioni richieste.

Se il tool di pianificazione non è in grado di eseguire codice generato dinamicamente allora l’unico approccio possibile è definire un set di domande a cui il tool può rispondere, realizzare le funzioni che forniscono le risposte a tali domande e accettare che il tool, via LLM, risponda solo a queste domande e non ad altre

LLM come agenti

Usare un LLM come interfaccia utente ad un business software lascia comunque all’utente il ruolo di decisore. Una integrazione più spinta tra LLM e contesto aziendale è quella che porta i LLM ad essere degli agenti. Gli agenti di intelligenza artificiale sono programmi software autonomi che utilizzano l’intelligenza artificiale per eseguire attività e raggiungere obiettivi per conto degli utenti o di altri sistemi. Quando si parla di agenti significa mettere in grado un LLM di agire, cioè di usare tool esterni (altri software generalmente) sia per recuperare informazioni, cioè come interfaccia utente, ma anche per eseguire attività. Per esempio, nel processo di pianificazione il LLM potrebbe far aggiornare il piano acquisti e quello di produzione dal tool a lui esterno (APS per esempio) al verificarsi di determinati eventi (o con una periodicità definita) e trasmettere i nuovi ordini al ERP, ai fornitori e al reparto produttivo se messo nella condizione di interoperare con ERP, e-mail e MES rispettivamente. Oppure sollecitare direttamente al fornitore la consegna di un ordine ormai in ritardo. Gli agenti AI, per la loro futura diffusione e affermazione, hanno gli stessi ostacoli dei sistemi di guida autonoma dei veicoli: devono dimostrarsi affidabili. Tanto più possono esserlo quanto più si crea in azienda una vera integrazione dei processi e delle informazioni.

Nella scelta di un MES, APS, ERP, WMS, ma anche di una macchina, diventerà sempre più importante che questo sia in grado di comunicare con i LLM in modo agevole, con minimo addestramento aggiuntivo. Inoltre negli ultimi mesi si è andato affermando il protocollo MCP (model context protocol) che crea uno standard di comunicazione tra LLM ed altri tool. Il MCP, creato da Anthropic a fine 2024, sta diventando nel mondo dell’intelligenza artificiale quello che i connettori USB sono nella connettività di periferiche hardware: cioè un modo standardizzato per collegare LLM e tool diversificati.

Alcune aspettative verso i sistemi di intelligenza artificiale generativa si sono nel tempo ridimensionate. Per esempio, l’approccio usato dai LLM applicato al forecasting non dà risultati soddisfacenti [https://arxiv.org/abs/2406.16964] ed è in generale inverosimile che un LLM calcoli un piano di produzione meglio di un APS perché non è stato addestrato per questo. Ciononostante, dotare il LLM di tool esterni, anche intercambiabili, offre la massima flessibilità ed indica una via praticabile per l’adozione di sistemi di intelligenza artificiale in azienda. Si può iniziare preparando un sistema per l’accesso in linguaggio naturale alla documentazione tecnica sui prodotti per gli operatori in fabbrica o per l’assistenza ai clienti e proseguire aggiungendo funzionalità di order promising connettendo la piattaforma a sistemi MES o APS.

Sicuramente uno degli effetti positivi dell’adozione di LLM e agenti in azienda sarà una maggiore integrazione delle informazioni a sistema e una migliore gestione della documentazione aziendale, premessa indispensabile per avere agenti affidabili e aziende sempre più proattive.

Share
Comments are closed.
Paneido
Paneido è sinonimo di vent’anni di esperienza con i sistemi di pianificazione e simulazione. La nostra filosofia è rendere semplici e veloci le attività quotidiane e praticabili le soluzioni ai problemi meno ricorrenti: phase-in/out di prodotti, adeguamento capacità produttiva, ottimizzazioni, ecc.
Ultime Pubblicazioni

Questo sito web utilizza cookies per garantire il corretto funzionamento dei servizi offerti e per migliorare l’esperienza d’uso delle applicazioni on-line; può contenere componenti multimediali di terze parti, i quali possono generare a loro volta cookies sui quali non è possibile avere controllo; per ulteriori informazioni consulta la nostra informativa.