This thesis describes the use of a Large Language Model (LLM) as an orchestrator of executable code within a network of edge nodes. The models have been instructed to generate scripts on demand, according to the computational capabilities and hardware resources available on each device connected to the network at a given time. The work illustrates the architecture of the system, which includes a communication layer implemented through the MQTT protocol and several Python scripts used for management and coordination. The study also compares the performance of two locally deployed models (Qwen2.5 and Qwen3) with that of a cloud-based model (GPT-5), evaluating both execution time and the quality of the generated outputs.

La tesi descrive l'utilizzo di un Large Language Model (LLM) come orchestratore di codice eseguibile all'interno di una rete di nodi edge. I modelli utilizzati sono stati istruiti in modo tale da creare degli script su richiesta dell'utente in base alle capacità computazionali dei singoli dispositivi presenti in un dato momento nella rete ed in base alle risorse hardware a loro disposizione; viene descritta l'architettura del progetto, che include un layer di comunicazione tramite MQTT e diversi script Python per la gestione ed il coordinamento. Sono state confrontate le performance di due modelli in esecuzione localmente (Qwen2.5 e Qwen3) e di un modello cloud (GPT-5), con valutazione delle metriche relative al tempo di esecuzione e alla qualità dell'output generato.

Generazione ed esecuzione dinamica del codice in sistemi IoT e Cyber-Physical

BERTOLI, FEDERICO
2024/2025

Abstract

This thesis describes the use of a Large Language Model (LLM) as an orchestrator of executable code within a network of edge nodes. The models have been instructed to generate scripts on demand, according to the computational capabilities and hardware resources available on each device connected to the network at a given time. The work illustrates the architecture of the system, which includes a communication layer implemented through the MQTT protocol and several Python scripts used for management and coordination. The study also compares the performance of two locally deployed models (Qwen2.5 and Qwen3) with that of a cloud-based model (GPT-5), evaluating both execution time and the quality of the generated outputs.
2024
Adaptive code generation and execution in IoT and Cyber-Physical systems
La tesi descrive l'utilizzo di un Large Language Model (LLM) come orchestratore di codice eseguibile all'interno di una rete di nodi edge. I modelli utilizzati sono stati istruiti in modo tale da creare degli script su richiesta dell'utente in base alle capacità computazionali dei singoli dispositivi presenti in un dato momento nella rete ed in base alle risorse hardware a loro disposizione; viene descritta l'architettura del progetto, che include un layer di comunicazione tramite MQTT e diversi script Python per la gestione ed il coordinamento. Sono state confrontate le performance di due modelli in esecuzione localmente (Qwen2.5 e Qwen3) e di un modello cloud (GPT-5), con valutazione delle metriche relative al tempo di esecuzione e alla qualità dell'output generato.
fluid computing
code generation
llm
distributed network
edge devices
File in questo prodotto:
File Dimensione Formato  
Bertoli.Federico.pdf

accesso aperto

Dimensione 7.83 MB
Formato Adobe PDF
7.83 MB Adobe PDF Visualizza/Apri

I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14251/4381