Cowry è un APS moderno e performante basato sull’ecosistema Python
L’intelligenza artificiale viene da lontano: da oltre sessanta anni viene sviluppata con alterni moti di entusiasmo e successi ma sicuramente è negli ultimi anni che, grazie alla disponibilità di elevata potenza di calcolo a buon mercato e di nuovi metodi di elaborazione, ha cominciato ad essere rilevante per molti utilizzi anche nel mondo business e nei processi di operations management.
Le tecniche di machine learning sono state applicate negli ultimi anni in modo proficuo al riconoscimento automatico di immagini e al forecasting (demand planning, gestione manutenzione programmata) ma sicuramente il risultato più eclatante degli ultimi mesi, per la sorprendente efficacia e la fruibilità anche per l’utente finale, è rappresentata dalla IA generativa e dai Large Language Models (LLM), cioè la tecnologia di elaborazione su cui si basa chatGPT di OpenAI. Da quando chatGPT si è reso disponibile al pubblico a fine 2022, l’intelligenza artificiale è diventata fruibile facilmente e per scopi non verticali per qualunque utente e ogni azienda di software ha cominciato a tracciare un percorso per lo sfruttamento di queste nuove tecnologie.
Un forte impulso che riguarda l’evoluzione di tutti i software, non solo quelli di logistica e supply chain management, è legato al fatto che le tecnologie LLM aumentano in modo significativo la produttività dei programmatori e consentiranno una crescita delle funzionalità dei software di supply chain management come mai si è vista in passato, rendendo in parte meno critica la scarsità di sviluppatori sul mercato. Vi sono altri due fronti su cui le tecnologie LLM possono migliorare i processi di operations management e l’uso dei software.
Il primo riguarda il supporto operativo agli utenti con assistenti virtuali. Queste applicazioni non sono una novità ma i modelli LLM permettono di aumentare l’articolazione e l’efficacia del dialogo con l’utente finale. I modelli LLM assimilano una base di conoscenza e rispondono alle domande degli utenti in linguaggio naturale e con inferenze molto interessanti e utili. Per chatGPT tale base di conoscenza è condivisa con tutti gli utenti, non specializzata e ferma al 2021 ma è possibile integrare tale base di conoscenza o usare modelli LLM privati in cui il set di informazioni utilizzato comprende quelle aziendali: informazioni relative ai processi logistici, alle procedure di controllo dei prodotti o altro.
Per chi produce business software, il modo più diretto per creare un assistente virtuale per una applicazione è dare in pasto al modello LLM il manuale di istruzioni dell’applicazione stessa (questo poi è un incentivo per tutte le software house a migliorare e tenere aggiornata la documentazione).
L’altro fronte sui cui già diversi player stanno ottenendo risultati è legato alla possibilità di alimentare un sistema di IA con dati e tabelle e, facendo una richiesta in linguaggio naturale, ottenere una risposta sempre in linguaggio naturale riguardante i dati stessi. Per esempio: abbiamo notizia da un fornitore che la sua consegna subirà un ritardo; quali ordini cliente sono affetti da tale ritardo e quando potremo evadere tali consegne? Oppure, nell’ambito dell’order promising, chiedere una data di consegna del nostro ordine di acquisto interrogando un LLM integrato con un APS.
Il futuro pare dischiudere molte opportunità ma vanno prese seriamente in considerazione anche alcune criticità riguardo l’adozione delle funzionalità di intelligenza artificiale in azienda, almeno per pianificare un percorso di adozione realistico.
- Affidabilità delle risposte: ad oggi sia chatGPT che altri sistemi LLM non danno sempre risposte affidabili, sia per lacune della documentazione assimilata dal modello LLM che per limiti degli stessi modelli. L’evoluzione della tecnologia migliorerà la situazione ma nel frattempo serve una supervisione da parte di attori umani a tali sistemi. Non bisogna comunque dimenticare che l’IA può sbagliare ma anche gli umani sbagliano: invece di ricercare contrapposizioni tra i due attori è utile considerare che persone e tecnologia possono fare grandi cose assieme, da sempre.
- Privatezza dei dati: per applicazioni aziendali è indispensabile che il modello LLM venga alimentato con dati propri e questi non devono essere messi in condivisione con concorrenti. I servizi di IA forniti tramite cloud computing stanno man mano fornendo soluzioni per la privatezza dei dati ma, per quantità ingenti, vanno valutati anche modelli completamente privati se in prospettiva non richiederanno potenze di calcolo troppo elevate per il training e il fine tuning.
- Funzionalità delle applicazioni interfacciate: le funzionalità di intelligenza artificiale possono completare le funzionalità dei software di supply chain management e operations management ma non ha senso aspettarsi nel medio termine che possano sostituirsi a queste. Per esempio, per rispondere alla domanda già citata “quali ordini cliente sono impattati da un ritardo sulle consegne della materia prima X” è razionale disporre di un APS con full pegging e interfacciarlo con il modello LLM invece di aspettarsi che il modello LLM se la cavi completamente da solo a rispondere.
- Siamo in una fase in cui l’IA è in hype grazie soprattutto a chatGPT. Ma non tutto ciò che è nuovo è sicuramente meglio di ciò che è vecchio: per esempio nell’ambito del forecasting i metodi statistici (ETS, ARIMA) sembrano funzionare ancora meglio di quelli di machine learning (si vedano gli studi di Makridakis). Inoltre i produttori di software reclamizzano soluzioni già pronte basate su IA mentre spesso si tratta di poco più di proof of concept o applicazioni custom, la cui validità in altri contesti è tutta da verificare.
- Piattaforma tecnologica: molti servizi di IA sono fruibili tramite web service o REST API e questo rende integrabile senza barriere significative l’IA in azienda e con i software già presenti sul mercato, almeno finché i dati da scambiare sono limitati. Per applicazioni più articolate è utile disporre di applicazioni aziendali che condividono la stessa tecnologia e i protocolli di scambio dati attualmente più usati nell’ambito delle piattaforme di intelligenza artificiale (per esempio il linguaggio Python).