Modern companies face increasingly complex challenges in the design and management of supply chains, where constrained optimization represents a fundamental tool for modeling real-world problems, identifying optimal solutions, and supporting critical decisions. Although Constraint Programming models ensure power and efficiency, their complexity can make it difficult for end users to understand the underlying reasoning and interpret the results. These are often perceived as “black boxes,” generating distrust and skepticism in their adoption. In this context, Large Language Models (LLMs) play a crucial role: thanks to their ability to understand natural language and generate explanations, they make optimization system decisions more accessible and interpretable, reducing the need for specialist support and accelerating the decision-making process. Explainable Constraint Programming integrates these capabilities by providing tools to clarify solver choices and improve human–machine interaction, thereby strengthening trust and efficiency in decision-support systems. The first chapter introduces the fundamentals of constrained optimization and the main explainability approaches applicable in this domain, with particular focus on two techniques: deductive and counterfactual explanation. The former is based on the idea of providing a logical justification for a given inference produced by the solver. The latter focuses on alternative solutions, identifying changes in parameters or constraints that could have led to a different decision from the optimal one identified. This section also introduces OR-Tools, Google’s open-source library for constraint programming. The second chapter delves into the theory behind Large Language Models and their use in multi-agent architectures. After an overview of transformer structures and the main training processes, attention shifts to the role of LLM agents and the workflows that allow different models to be orchestrated in a coordinated manner. The third chapter, by way of example, discusses a case study on the Bin Packing optimization problem, preceded by a reflection on the potential impact of LLMs across the supply chain landscape. Two different approaches are presented: one for deductive explanation, leveraging LLMs to analyze tabular input data, and the other for counterfactual explanation, employing a multi-agent framework designed to analyze alternative solutions. This project thus highlights the potential of LLMs not only as tools for automated generation but also as enablers of interpretability in constrained optimization scenarios, with direct implications for the supply chain domain and, more broadly, for complex decision-making processes.

Le aziende moderne affrontano sfide sempre più complesse nella progettazione e nella gestione delle supply chain, dove l’ottimizzazione vincolata rappresenta uno strumento fondamentale per modellare problemi reali, individuare soluzioni ottimali e supportare decisioni critiche. Sebbene i modelli di Constraint Programming garantiscano potenza ed efficienza, la loro complessità può rendere difficile per gli utenti finali comprenderne le motivazioni e interpretarne i risultati, spesso percepiti come “scatole nere”, generando sfiducia e scetticismo nella loro adozione. In questo contesto, i Large Language Models (LLM) giocano un ruolo fondamentale: grazie alle loro capacità di comprensione del linguaggio naturale e generazione di spiegazioni, essi permettono di rendere accessibili e interpretabili le decisioni dei sistemi di ottimizzazione, riducendo la necessità di supporto specialistico e accelerando il processo decisionale. L’Explainable Constraint Programming integra queste potenzialità fornendo strumenti per spiegare le scelte del solutore e per migliorare l’interazione uomo-macchina, rafforzando così la fiducia e l’efficienza negli strumenti di supporto alle decisioni. Nel primo capitolo vengono presentati i fondamenti dell’ottimizzazione vincolata e i principali approcci di explainability applicabili in questo ambito, con particolare attenzione a due tecniche: la deductive e la counterfactual explanation. La prima si basa sull’idea di fornire una giustificazione logica per una certa inferenza effettuata dal solver. La seconda si concentra su soluzioni alternative, individuando i cambiamenti nei parametri o nei vincoli che avrebbero potuto portare a una decisione diversa da quella ottima individuata. In questa sezione viene inoltre introdotto OR-Tools, libreria open-source di Google per la programmazione vincolata. Il secondo capitolo approfondisce invece la teoria alla base dei Large Language Models e il loro utilizzo in architetture multi-agente. Dopo una panoramica sulla struttura dei transformer e sui principali processi di addestramento, l’attenzione si sposta sul ruolo degli agenti LLM e sui workflow che consentono di orchestrare modelli diversi in maniera coordinata. Nel terzo capitolo, a titolo esemplificativo, dopo una riflessione sull’impatto potenziale degli LLM nell’intero panorama della supply chain, si riporta un caso di applicazione al problema di ottimizzazione del Bin Packing, con due diversi approcci, uno per la deductive explanation, che sfrutta gli LLM per analizzare tabelle date in input, e l’altro per la counterfactual explanation, in cui si sfrutta un framework multi-agente finalizzato all’analisi di soluzioni alternative. Questo progetto evidenzia quindi il potenziale degli LLM non solo come strumenti di generazione automatica, ma anche come facilitatori di interpretabilità in scenari di ottimizzazione vincolata, con ricadute dirette nell’ambito della supply chain e, più in generale, nei processi decisionali complessi.

Metodi di spiegabilità per l’ottimizzazione vincolata con i Large Language Models

TIBERI, VERONICA
2024/2025

Abstract

Modern companies face increasingly complex challenges in the design and management of supply chains, where constrained optimization represents a fundamental tool for modeling real-world problems, identifying optimal solutions, and supporting critical decisions. Although Constraint Programming models ensure power and efficiency, their complexity can make it difficult for end users to understand the underlying reasoning and interpret the results. These are often perceived as “black boxes,” generating distrust and skepticism in their adoption. In this context, Large Language Models (LLMs) play a crucial role: thanks to their ability to understand natural language and generate explanations, they make optimization system decisions more accessible and interpretable, reducing the need for specialist support and accelerating the decision-making process. Explainable Constraint Programming integrates these capabilities by providing tools to clarify solver choices and improve human–machine interaction, thereby strengthening trust and efficiency in decision-support systems. The first chapter introduces the fundamentals of constrained optimization and the main explainability approaches applicable in this domain, with particular focus on two techniques: deductive and counterfactual explanation. The former is based on the idea of providing a logical justification for a given inference produced by the solver. The latter focuses on alternative solutions, identifying changes in parameters or constraints that could have led to a different decision from the optimal one identified. This section also introduces OR-Tools, Google’s open-source library for constraint programming. The second chapter delves into the theory behind Large Language Models and their use in multi-agent architectures. After an overview of transformer structures and the main training processes, attention shifts to the role of LLM agents and the workflows that allow different models to be orchestrated in a coordinated manner. The third chapter, by way of example, discusses a case study on the Bin Packing optimization problem, preceded by a reflection on the potential impact of LLMs across the supply chain landscape. Two different approaches are presented: one for deductive explanation, leveraging LLMs to analyze tabular input data, and the other for counterfactual explanation, employing a multi-agent framework designed to analyze alternative solutions. This project thus highlights the potential of LLMs not only as tools for automated generation but also as enablers of interpretability in constrained optimization scenarios, with direct implications for the supply chain domain and, more broadly, for complex decision-making processes.
2024
Explainability Methods for Constrained Optimization with Large Language Models
Le aziende moderne affrontano sfide sempre più complesse nella progettazione e nella gestione delle supply chain, dove l’ottimizzazione vincolata rappresenta uno strumento fondamentale per modellare problemi reali, individuare soluzioni ottimali e supportare decisioni critiche. Sebbene i modelli di Constraint Programming garantiscano potenza ed efficienza, la loro complessità può rendere difficile per gli utenti finali comprenderne le motivazioni e interpretarne i risultati, spesso percepiti come “scatole nere”, generando sfiducia e scetticismo nella loro adozione. In questo contesto, i Large Language Models (LLM) giocano un ruolo fondamentale: grazie alle loro capacità di comprensione del linguaggio naturale e generazione di spiegazioni, essi permettono di rendere accessibili e interpretabili le decisioni dei sistemi di ottimizzazione, riducendo la necessità di supporto specialistico e accelerando il processo decisionale. L’Explainable Constraint Programming integra queste potenzialità fornendo strumenti per spiegare le scelte del solutore e per migliorare l’interazione uomo-macchina, rafforzando così la fiducia e l’efficienza negli strumenti di supporto alle decisioni. Nel primo capitolo vengono presentati i fondamenti dell’ottimizzazione vincolata e i principali approcci di explainability applicabili in questo ambito, con particolare attenzione a due tecniche: la deductive e la counterfactual explanation. La prima si basa sull’idea di fornire una giustificazione logica per una certa inferenza effettuata dal solver. La seconda si concentra su soluzioni alternative, individuando i cambiamenti nei parametri o nei vincoli che avrebbero potuto portare a una decisione diversa da quella ottima individuata. In questa sezione viene inoltre introdotto OR-Tools, libreria open-source di Google per la programmazione vincolata. Il secondo capitolo approfondisce invece la teoria alla base dei Large Language Models e il loro utilizzo in architetture multi-agente. Dopo una panoramica sulla struttura dei transformer e sui principali processi di addestramento, l’attenzione si sposta sul ruolo degli agenti LLM e sui workflow che consentono di orchestrare modelli diversi in maniera coordinata. Nel terzo capitolo, a titolo esemplificativo, dopo una riflessione sull’impatto potenziale degli LLM nell’intero panorama della supply chain, si riporta un caso di applicazione al problema di ottimizzazione del Bin Packing, con due diversi approcci, uno per la deductive explanation, che sfrutta gli LLM per analizzare tabelle date in input, e l’altro per la counterfactual explanation, in cui si sfrutta un framework multi-agente finalizzato all’analisi di soluzioni alternative. Questo progetto evidenzia quindi il potenziale degli LLM non solo come strumenti di generazione automatica, ma anche come facilitatori di interpretabilità in scenari di ottimizzazione vincolata, con ricadute dirette nell’ambito della supply chain e, più in generale, nei processi decisionali complessi.
Optimization
Agent
LLM
Explainability
Constraint
File in questo prodotto:
File Dimensione Formato  
Tiberi.Veronica.pdf

accesso aperto

Dimensione 1.23 MB
Formato Adobe PDF
1.23 MB Adobe PDF Visualizza/Apri

I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14251/3950