Indice

02 Marzo 2025

AI, LLM e agenti intelligenti: il futuro dell’integrazione secondo Quarkus

AI, LLM e agenti intelligenti: il futuro dell’integrazione secondo Quarkus

L’intelligenza artificiale sta trasformando il mondo dello sviluppo software, ma quanto possiamo davvero fidarci delle risposte dei Large Language Models (LLM)? Questo è stato il fulcro dell’incontro "Integrare LLM ed agenti intelligenti: AI secondo Quarkus", organizzato dal Java User Group Torino in collaborazione con Zero11, un evento che ha offerto spunti concreti su come combinare AI generativa, motori di regole e strumenti di validazione per costruire sistemi più affidabili ed efficienti.

Due relatori d’eccezione hanno guidato la discussione:

  • Mario Fusco, Java Champion e Senior Principal Software Engineer @Red Hat, Project Lead di Drools
  • Daniele Zonca, AI Architect @Red Hat OpenShift AI, Co-founder di TrustyAI, contributor a progetti open-source come KServe, vLLM, Kubeflow

LLM: potenti, ma non infallibili

Come ha sottolineato Mario Fusco nel suo intervento, gli LLM stanno rivoluzionando il mondo dello sviluppo software, ma non sono strumenti privi di limiti. Il loro funzionamento si basa su algoritmi statistici che, sebbene capaci di generare risposte coerenti, non comprendono il business e il contesto operativo in cui vengono utilizzati.

"Se compri una lavatrice su Amazon, il giorno dopo il sistema ti suggerisce di comprarne altre tre. Questo ha senso statisticamente, ma non per un utente privato che non sta aprendo una lavanderia", ha ironizzato Fusco.

L’esempio mostra un problema cruciale: senza una logica di business e una conoscenza del dominio ben strutturata, gli LLM possono generare suggerimenti o decisioni che non riflettono la realtà aziendale.

Il problema delle allucinazioni nei modelli AI

Uno dei temi centrali dell’incontro è stato quello delle allucinazioni degli LLM, ovvero la generazione di risposte errate o non verificabili. Daniele Zonca ha approfondito il fenomeno, citando un caso emblematico che ha coinvolto Air Canada.

"Un chatbot della compagnia ha promesso a un cliente un rimborso di 650 dollari canadesi, anche se non era previsto dalle policy aziendali. Il cliente ha portato la trascrizione in tribunale, e la compagnia è stata costretta a pagare. Il giorno dopo, il chatbot è stato disattivato."

Questo episodio dimostra che affidarsi esclusivamente agli LLM, senza un controllo strutturato, può portare a situazioni disastrose.

Integrare AI simbolica e Machine Learning: la soluzione ibrida

Per mitigare questi problemi, l’approccio più promettente è quello ibrido, che combina AI generativa con motori di regole e altri strumenti di validazione.

"Abbiamo già tutte le tecnologie necessarie: i rule engine esistono da oltre 40 anni, ma oggi possiamo integrarli con gli LLM per ottenere il meglio di entrambi i mondi",

ha spiegato Fusco.

L’idea di fondo è quella di affiancare la generazione statistica dei modelli con sistemi di regole rigide, in modo da controllare e validare le decisioni. Ad esempio, nel caso di Air Canada, anziché lasciare che l’LLM determinasse il rimborso, sarebbe stato più efficace far validare la richiesta da un motore di regole come Drools, garantendo trasparenza e coerenza con le policy aziendali.

Demo: un chatbot per la gestione dei rimborsi

Uno dei momenti più attesi dell’evento è stata la demo live in cui Mario Fusco ha mostrato un chatbot sviluppato con Quarkus, LangChain4j e Drools per la gestione dei rimborsi di una compagnia aerea.

Il sistema era progettato per raccogliere i dati dell’utente tramite chat e, una volta completata la richiesta, passare i dati a Drools, che applicava le regole aziendali per calcolare il rimborso corretto.

"L’LLM viene usato solo per la raccolta dati e l’interazione con il cliente, mentre la logica di business è completamente gestita dal motore di regole",

ha spiegato Fusco.

Il valore di Quarkus e LangChain4j

L’evento ha evidenziato l’importanza di strumenti come Quarkus e LangChain4j per costruire applicazioni AI scalabili e affidabili. Grazie a queste tecnologie, è possibile integrare LLM con sistemi di regole e validazione, migliorando il controllo sui risultati generati dall’intelligenza artificiale.

"Quarkus permette di gestire in modo ottimale le architetture ibride AI, mentre LangChain4j offre un set di strumenti potente per orchestrare l’interazione tra modelli generativi e agenti intelligenti",

ha sottolineato Zonca.

Conclusioni: verso un’AI più affidabile e controllata

L’incontro ha confermato che il futuro dell’AI non sarà basato solo sui modelli generativi, ma su un’integrazione tra LLM, motori di regole e tecniche di validazione avanzate.

"Non bisogna vedere l’AI come un sistema monolitico: il vero valore si ottiene combinando diverse tecnologie complementari, ognuna con i suoi punti di forza",

ha concluso Fusco.

Zero11 è orgogliosa di aver supportato questo evento e di contribuire attivamente allo sviluppo di soluzioni AI innovative. La nostra missione è quella di sviluppare e integrare tecnologie avanzate per migliorare i processi di vendita e marketing, garantendo trasparenza, efficienza e controllo sui sistemi AI.

📌 Se ti sei perso l’evento, puoi rivederlo qui sotto.

🔗 Vuoi approfondire come integrare AI generativa e motori di regole nel tuo business? Contattaci per scoprire le soluzioni AI-powered di Zero11!

#AI #MachineLearning #LLM #Quarkus #Drools #LangChain4j #Zero11 #IntelligenzaArtificiale #RuleEngine #Developers #Innovation

Contattaci

Vuoi scoprire come Zero11 può supportarti nell'integrazione di CRM e Marketing Automation? Contattaci oggi stesso per una consulenza personalizzata!