This thesis describes the use of a Large Language Model (LLM) as an orchestrator of executable code within a network of edge nodes. The models have been instructed to generate scripts on demand, according to the computational capabilities and hardware resources available on each device connected to the network at a given time. The work illustrates the architecture of the system, which includes a communication layer implemented through the MQTT protocol and several Python scripts used for management and coordination. The study also compares the performance of two locally deployed models (Qwen2.5 and Qwen3) with that of a cloud-based model (GPT-5), evaluating both execution time and the quality of the generated outputs.
La tesi descrive l'utilizzo di un Large Language Model (LLM) come orchestratore di codice eseguibile all'interno di una rete di nodi edge. I modelli utilizzati sono stati istruiti in modo tale da creare degli script su richiesta dell'utente in base alle capacità computazionali dei singoli dispositivi presenti in un dato momento nella rete ed in base alle risorse hardware a loro disposizione; viene descritta l'architettura del progetto, che include un layer di comunicazione tramite MQTT e diversi script Python per la gestione ed il coordinamento. Sono state confrontate le performance di due modelli in esecuzione localmente (Qwen2.5 e Qwen3) e di un modello cloud (GPT-5), con valutazione delle metriche relative al tempo di esecuzione e alla qualità dell'output generato.
Generazione ed esecuzione dinamica del codice in sistemi IoT e Cyber-Physical
BERTOLI, FEDERICO
2024/2025
Abstract
This thesis describes the use of a Large Language Model (LLM) as an orchestrator of executable code within a network of edge nodes. The models have been instructed to generate scripts on demand, according to the computational capabilities and hardware resources available on each device connected to the network at a given time. The work illustrates the architecture of the system, which includes a communication layer implemented through the MQTT protocol and several Python scripts used for management and coordination. The study also compares the performance of two locally deployed models (Qwen2.5 and Qwen3) with that of a cloud-based model (GPT-5), evaluating both execution time and the quality of the generated outputs.| File | Dimensione | Formato | |
|---|---|---|---|
|
Bertoli.Federico.pdf
accesso aperto
Dimensione
7.83 MB
Formato
Adobe PDF
|
7.83 MB | Adobe PDF | Visualizza/Apri |
I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/20.500.14251/4381