Questa tesi è stata sviluppata durante un tirocinio presso Credem Banca e riguarda l'applicazione dei Large Language Models (LLMs) nel dominio degli investimenti di Wealth Management. Nello specifico, affronta l'automazione delle azioni correttive sugli investimenti, trasformando delle diagnosi statiche di portafoglio già fornite in narrazioni dinamiche e personalizzate su misura per i profili dei clienti. Il vincolo critico che deve essere rispettato nel settore bancario è la rigida compliance: il sistema deve avere una politica di tolleranza zero verso le allucinazioni finanziarie, come l'invenzione di disallineamenti di portafoglio o il suggerimento di operazioni non fornite su asset inventati. Inoltre, le rigide politiche sulla privacy dei dati richiedono che il modello sia implementato completamente in-house. Per soddisfare questi vincoli su hardware di livello consumer, questo studio utilizza Qwen 2.5 (7B) nella sua quantizzazione a 4 bit. Questa scelta architetturale è stata fatta per ridurre drasticamente i requisiti di VRAM, consentendo l'implementazione in locale. Alcune valutazioni Zero-shot sul modello Base hanno mostrato che Qwen non è in grado di soddisfare i vincoli di compliance obbligatori, rendendo necessario un fine-tuning specifico per il dominio. Per addestrare questo sistema, è stato necessario costruire da zero un dataset personalizzato con circa 1.800 esempi, una quantità sufficiente considerando la bassa varianza del dominio di questo compito. Gli input sono stati generati proceduralmente per evitare bias storici di mercato, incorporando logiche finanziarie. Gli output target sono stati generati tramite una metodologia Teacher-Student utilizzando Gemini 2.5 Pro, seguita da supervisione umana. Il modello è stato poi sottoposto a fine-tuning utilizzando tecniche di Parameter-Efficient Fine-Tuning (PEFT), valutando sia QLoRA che il Soft Prompt Tuning con numerose ablazioni degli iperparametri e del system prompt. Per valutare le prestazioni, i modelli quantizzati sottoposti a fine-tuning vengono confrontati con due baseline: il Modello Base Zero-Shot (per dimostrare che il fine-tuning è stato efficace) e il Modello Teacher (per stabilire il limite superiore, o upper bound). La valutazione si basa su un framework LLM-as-a-Judge personalizzato che utilizza una formula su misura per questo compito. Questa metrica separa i "Soft Constraints" per l'aderenza stilistica e gli "Hard Constraints" per garantire la stretta aderenza alla compliance, dove qualsiasi allucinazione finanziaria comporta un punteggio pari a zero. I risultati mostrano che il modello sottoposto a fine-tuning con QLoRA commette pochi errori di compliance, che sono molto presenti nel modello base, mostrando prestazioni e affidabilità paragonabili al modello Teacher su questo specifico compito.

AI Generativa in contesto bancario: utilizzo di tecniche di PEFT su LLM compatti per la stesura e personalizzazione sul cliente finale delle proposte di investimento

BIAGINI, FILIPPO
2024/2025

Abstract

Questa tesi è stata sviluppata durante un tirocinio presso Credem Banca e riguarda l'applicazione dei Large Language Models (LLMs) nel dominio degli investimenti di Wealth Management. Nello specifico, affronta l'automazione delle azioni correttive sugli investimenti, trasformando delle diagnosi statiche di portafoglio già fornite in narrazioni dinamiche e personalizzate su misura per i profili dei clienti. Il vincolo critico che deve essere rispettato nel settore bancario è la rigida compliance: il sistema deve avere una politica di tolleranza zero verso le allucinazioni finanziarie, come l'invenzione di disallineamenti di portafoglio o il suggerimento di operazioni non fornite su asset inventati. Inoltre, le rigide politiche sulla privacy dei dati richiedono che il modello sia implementato completamente in-house. Per soddisfare questi vincoli su hardware di livello consumer, questo studio utilizza Qwen 2.5 (7B) nella sua quantizzazione a 4 bit. Questa scelta architetturale è stata fatta per ridurre drasticamente i requisiti di VRAM, consentendo l'implementazione in locale. Alcune valutazioni Zero-shot sul modello Base hanno mostrato che Qwen non è in grado di soddisfare i vincoli di compliance obbligatori, rendendo necessario un fine-tuning specifico per il dominio. Per addestrare questo sistema, è stato necessario costruire da zero un dataset personalizzato con circa 1.800 esempi, una quantità sufficiente considerando la bassa varianza del dominio di questo compito. Gli input sono stati generati proceduralmente per evitare bias storici di mercato, incorporando logiche finanziarie. Gli output target sono stati generati tramite una metodologia Teacher-Student utilizzando Gemini 2.5 Pro, seguita da supervisione umana. Il modello è stato poi sottoposto a fine-tuning utilizzando tecniche di Parameter-Efficient Fine-Tuning (PEFT), valutando sia QLoRA che il Soft Prompt Tuning con numerose ablazioni degli iperparametri e del system prompt. Per valutare le prestazioni, i modelli quantizzati sottoposti a fine-tuning vengono confrontati con due baseline: il Modello Base Zero-Shot (per dimostrare che il fine-tuning è stato efficace) e il Modello Teacher (per stabilire il limite superiore, o upper bound). La valutazione si basa su un framework LLM-as-a-Judge personalizzato che utilizza una formula su misura per questo compito. Questa metrica separa i "Soft Constraints" per l'aderenza stilistica e gli "Hard Constraints" per garantire la stretta aderenza alla compliance, dove qualsiasi allucinazione finanziaria comporta un punteggio pari a zero. I risultati mostrano che il modello sottoposto a fine-tuning con QLoRA commette pochi errori di compliance, che sono molto presenti nel modello base, mostrando prestazioni e affidabilità paragonabili al modello Teacher su questo specifico compito.
2024
AI
LLM
Fine Tuning
Finanza
Wealth management
File in questo prodotto:
File Dimensione Formato  
Tesi_di_laurea.pdf

accesso aperto

Dimensione 1.58 MB
Formato Adobe PDF
1.58 MB Adobe PDF Visualizza/Apri

I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14251/5357