TESI e TIROCINI

Proposte per laureandi triennali e magistrali, delle facoltà legate al mondo dell'informatica.

Sei alla ricerca di una tesi o di un tirocinio e, al tempo stesso, vuoi iniziare a conoscere meglio il mondo del lavoro?

Ti proponiamo i seguenti ambiti sperimentali (non per tesi compilative) dove potrai metterti alla prova lavorando su casi reali utilizzando le tecnologie più innovative, ed avere il supporto dei nostri esperti.
Questa lista di proposte è in costante aggiornamento, qualora non riuscissi a trovare un titolo d'interesse, o la proposta non rispecchiasse a pieno la tua aspettativa, nessun problema, e cercheremo di trovare la soluzione più adeguata a te.


BEYOND CONTAINERS: A DEEP DIVE INTO CLOUD SECURITY THROUGH A COMPARATIVE STUDY OF DOCKER AND KATA CONTAINERS

Sede: Torino/Silea/Padova/Bologna | Durata 3-6 mesi | Scade il 30/06/2025

Contesto
Nel contesto delle architetture a microservizi in ambienti cloud, la sicurezza e l'isolamento dei container costituiscono fattori cruciali, soprattutto nel caso di applicazioni multi-tenant o con elevati requisiti di sicurezza. Docker ha rivoluzionato lo sviluppo e il deploy delle applicazioni, ma la sua condivisione del kernel tra i container rappresenta una potenziale vulnerabilità. Kata Containers, una tecnologia emergente, combina la leggerezza dei container con l'isolamento avanzato delle macchine virtuali, offrendo una soluzione alternativa per migliorare la sicurezza.

Obiettivi
L'obiettivo di questa esperienza è confrontare le prestazioni e la sicurezza di Kata Containers rispetto a Docker nell'implementazione di architetture a microservizi. Nel corso di questo studio ci si focalizzerà sulla robustezza di questi due sistemi rispetto a tentativi di violazione della sicurezza, inclusi attacchi basati su tecniche di container escape, e si valuterà l’impatto dell’isolamento delle macchine virtuali di Kata Containers rispetto all'uso del kernel condiviso di Docker. Il confronto riguarderà anche fattori rilevanti quali prestazioni, utilizzo delle risorse e facilità di implementazione in ambienti cloud.

La sperimentazione prevede la realizzazione di due architetture identiche a microservizi, la prima eseguita su Docker e la seconda su Kata Containers, utilizzando Kubernetes per la gestione e l'orchestrazione dei container. Saranno individuate e monitorate metriche di performance quali tempi di avvio dei container, utilizzo di CPU e memoria, oltre alla risposta a tentativi di attacco simulati. Le analisi permetteranno di determinare quale tecnologia offra un miglior equilibrio tra sicurezza e performance per specifici casi d'uso.

Tecnologie
Kata Containers, Docker, Kubernetes, AWS, Prometheus, Grafana, Java, Spring Boot.

REVOLUTIONIZING DATA FETCHING: A BATTLE BETWEEN GRAPHQL AND REST IN DATA-DRIVEN MICROSERVICES

Sede: Torino/Silea/Padova/Bologna | Durata 3-6 mesi | Scade il 30/06/2025

Contesto
Grazie alla loro semplicità e scalabilità, le API REST rappresentano uno standard consolidato per la comunicazione tra le varie componenti in architetture a microservizi. Tuttavia, l'emergere di GraphQL ha offerto nuove prospettive per un recupero dei dati più efficiente, specialmente in contesti dove la complessità delle query e l'over-fetching di informazioni rappresentano un problema. GraphQL permette di richiedere solo i dati necessari, riducendo così il traffico di rete e ottimizzando la comunicazione tra frontend e backend.

Obiettivi
Questo studio si propone di confrontare GraphQL e REST dal punto di vista dell'efficienza nel recupero dei dati in architetture a microservizi. L’obiettivo principale è valutare le prestazioni, l’efficacia nel ridurre l’over-fetching e l’impatto sui tempi di risposta in scenari reali. Sarà esaminata anche la facilità di adozione e integrazione di GraphQL rispetto a REST in applicazioni esistenti, nonché i potenziali vantaggi e svantaggi per gli sviluppatori e gli utenti finali.

La sperimentazione coinvolgerà lo sviluppo di due versioni di un’applicazione a microservizi, una che utilizza API REST tradizionali e una che implementa GraphQL. Entrambe le architetture verranno sottoposte a test di carico per valutare tempi di risposta, utilizzo delle risorse e volume di dati trasferiti. L’analisi si concentrerà anche sulla gestione della complessità delle query e sulla flessibilità di entrambe le soluzioni in scenari complessi con elevata personalizzazione delle richieste di dati.

Tecnologie
GraphQL, REST, AWS, Gatling, Apache JMeter, Prometheus, Grafana, Java, Spring Boot.

ANALISI E GESTIONE DEI CONFLITTI TRA REQUISITI NON FUNZIONALI

Sede: Silea/Padova | Durata 3-5 mesi | Scade il 30/06/2025

Contesto
In ingegneria dei requisiti, i requisiti non funzionali rappresentano i vincoli di funzionamento di un sistema, e.g., i vincoli di natura temporale, vincoli sul processo di sviluppo e sugli standard da adottare, e sono fondamentali nel determinare la qualità dei servizi forniti attraverso una soluzione software.
Le caratteristiche di run-time riferite ad un insieme di NFR dipendono dall'infrastruttura operativa in cui è stata implementata la soluzione. Quando si gestiscono più requisiti non funzionali in un sistema, possono sorgere conflitti causati da diversi fattori, e.g., cambiamenti nell'ambiente aziendale, modifiche all'infrastruttura operativa, e requisiti in evoluzione. Questi conflitti possono porre sfide significative e richiedono un’attenta considerazione per garantire che i requisiti non funzionali siano soddisfatti in modo ottimale. I conflitti tra requisiti non funzionali non individuati possono avere un impatto dannoso sulle prestazioni di un sistema operativo.
In "Minimizing conflicts among run-time non-functional requirements within DevOps" è stato proposto un framework per la minimizzazione dei conflitti tra requisiti non funzionali, con lo scopo di migliorare la qualità del software ed aumentare la produttività.

Obiettivi
Questa tesi ha lo scopo di:

  • individuare ed analizzare i requisiti non funzionali, ed i loro conflitti, richiesti da un applicativo aziendale;
  • indagare l'applicabilità del framework sopra menzionato in ambito aziendale, analizzandone vantaggi e limiti, ed indagare possibili ottimizzazioni e/o estensioni delle sue funzionalità.

Tecnologie
Java, Eclipse, Python, SQL Server.

UTILIZZO DELL' INTELLIGENZA ARTIFICIALE A SUPPORTO DELLA FASE DI DEFINIZIONE DEI REQUISITI

Sede: Silea/Padova | Durata 3-5 mesi | Scade il 30/06/2025

Contesto
Alcune delle decisioni prese durante il flusso di valore tecnologico possono sfociare in errori software complessi, le cui possibili soluzioni vengono ridotte dal passare del tempo. Questo, a sua volta, fa sì che le organizzazioni dimostrino sempre più interesse nel gestire in modo efficiente il flusso di valore di un prodotto software.
In "Driving the Technology Value Stream by Analyzing App Reviews" è stato proposto un framework che analizza i riscontri degli utenti finali di un'applicazione software, che combina:

  • tecniche di sentiment analysis
  • un key phrase extraction model basato su un'architettura transformer-based
  • un topic recognition classifier di recensioni, con lo scopo di facilitare le organizzazioni a prendere delle decisioni per ottenere un alto grado di soddisfazione da parte degli utenti finali del software proposto.

Obiettivi
Questa tesi ha lo scopo di indagare l'applicabilità del framework sopra menzionato in ambito aziendale, analizzandone vantaggi e limiti, ed indagare possibili ottimizzazioni e/o estensioni delle sue funzionalità.

Tecnologie
Jupyter notebook, OpenAI account.

UTILIZZO DELL'INTELLIGENZA ARTIFICIALE A SUPPORTO DELLA DOCUMENTAZIONE DI CODICE SORGENTE

Sede: Silea/Padova | Durata 3-5 mesi | Scade il 30/06/2025

Contesto
Il codice sorgente spesso non viene documentato; questo porta ad un forte aumento del tempo dedicato alla risoluzione degli errori software, difficoltà nella manutenzione e nell'aggiornamento del codice, e talvolta anche il completo abbandono dello stesso.
"CoDescribe: An Intelligent Code Analyst for Enhancing Productivity and Software Quality" è un framework che utilizza transformer-based models e knowledge graphs per generare documentazione di codice sorgente, tra le altre cose.

Obiettivi
Questa tesi ha lo scopo di indagare l'applicabilità di CoDescribe in ambito aziendale, analizzandone vantaggi e limiti, ed indagare possibili ottimizzazioni e/o estensioni delle sue funzionalità.

Tecnologie
Python, OpenAI account.

TEST DRIVEN AI

Sede: Silea/Padova | Durata 3-6 mesi | Scade il 30/06/2025

Contesto
Nel campo dello sviluppo software, l'automazione dei test è essenziale per garantire la qualità e la stabilità delle applicazioni. Tuttavia, la creazione manuale di testcase può essere laboriosa e suscettibile di errori. In risposta a questa sfida, l'utilizzo dell'intelligenza artificiale (AI) per la generazione automatica di testcase rappresenta un'opportunità promettente. Questa tesi si propone di sviluppare un tool innovativo che, dato un input in linguaggio naturale, generi automaticamente delle specifiche compatibili con il processo di Behavior-Driven Development e generi degli script automatici sfruttando le capacità delle API di ChatGPT o un analogo modello di AI.

Obiettivi
L'obiettivo principale di questa tesi è lo sviluppo di un tool che consenta di generare testcase a partire da prompt espressi in linguaggio naturale. Il tool utilizzerà le API di ChatGPT o un framework simile per interpretare i prompt degli utenti e tradurli in specifiche Behavior-Driven Development (es. Cucumber). Successivamente sempre tramite AI si genereranno dei test automatici sotto forma di script eseguibili. Ti occuperai di:

  • Progettazione dell'Architettura del Tool: Si definirà l'architettura del tool, identificando i componenti necessari per l'interazione con le API di ChatGPT e l'esecuzione dei comandi.
  • Implementazione delle Funzionalità di Intelligenza Artificiale: Si studieranno modelli di linguaggio naturale e le API di ChatGPT o un analogo framework, per interpretare i prompt degli utenti.
  • Integrazione con il Generatore di Testcase: Si implementeranno le funzionalità per tradurre le istruzioni generate in script Behavior-Driven Development.
  • Scrittura dei test automatici: Tramite l'utilizzo dell'AI si implementeranno test automatici eseguibili.
  • Testing e Valutazione: Si condurranno test per valutare l'accuratezza e l'efficacia del tool nella generazione di testcase in base a prompt in linguaggio naturale.
  • Valutazione Comparativa: Si effettuerà un confronto con altri approcci disponibili per il test automation, valutandone l'efficienza e la manutenibilità.

Tecnologie
Cucumber, ChatGPT o equivalente.

SERVERLESS FRAMEWORK

Sede: Silea/Padova | Durata 3 mesi | Scade il 30/06/2025

Contesto
L'adozione crescente del paradigma serverless ha portato molte organizzazioni a considerare l'uso del Serverless Framework come uno strumento principale per lo sviluppo e il deployment delle loro applicazioni. Tuttavia, l'ambiente multicloud presenta sfide uniche in termini di portabilità delle applicazioni e gestione delle risorse. Questa tesi si concentra sull'indagine dell'efficacia del Serverless Framework in contesti multicloud, con particolare attenzione alla sua portabilità e alla gestione delle risorse.

Obiettivi

  • Analizzare le funzionalità e l'architettura del Serverless Framework e comprendere come si adatta agli ambienti multicloud.
  • Progettare e implementare un ambiente di sperimentazione multicloud utilizzando una selezione di provider cloud, come AWS e Azure.
  • Deployare applicazioni di esempio utilizzando il Serverless Framework su ciascuna piattaforma cloud selezionata.
  • Valutare la portabilità delle applicazioni sviluppate utilizzando il Serverless Framework tra i diversi fornitori di servizi cloud.
  • Esplorare le strategie e gli strumenti per la gestione delle risorse nell'ambiente multicloud utilizzando il Serverless Framework.
  • Tecnologie
    Git, Serverless framework, Aws, Azure.

    BIG DATA – TECNICHE AVANZATE DI OTTIMIZZAZIONE PER LA GESTIONE LOGISTICA DELLO SPOSTAMENTO MERCI

    Sede: Bari/Torino | Durata 3-6 mesi | Scade il 30/06/2025

    Contesto
    Il presente lavoro di tesi si propone di analizzare e approfondire le tecniche più avanzate di risoluzione di problemi di ottimizzazione applicati alla gestione logistica dello spostamento merci, con un focus particolare sulle metodologie che prevedono l'aggiornamento parziale della soluzione. La logistica rappresenta una componente cruciale per il successo delle aziende, poiché influisce direttamente sull'efficienza operativa e sui costi complessivi. In un contesto caratterizzato da una crescente complessità delle reti di distribuzione e da una domanda sempre più esigente di tempi di consegna ridotti e di alta qualità del servizio, diventa essenziale adottare soluzioni innovative e ottimizzate.

    Obiettivi
    La tesi si suddivide in tre parti principali.

    • La prima parte prevede l’analisi teorica delle tecniche di ottimizzazione, con un focus particolare su algoritmi evolutivi, algoritmi di ottimizzazione basati su swarm intelligence, programmazione matematica avanzata e metodi di machine learning. Viene esplorata l'applicabilità di tali tecniche in diversi scenari logistici, con un'enfasi speciale sulle metodologie che consentono l'aggiornamento parziale della soluzione, permettendo di adattarsi in tempo quasi reale a variazioni dei dati e delle condizioni operative.
    • La seconda parte del lavoro approfondisce gli strumenti software open source attualmente disponibili per l'implementazione delle suddette tecniche di ottimizzazione. Vengono analizzati diversi software open source, mettendo in luce le funzionalità, le prestazioni e la facilità d'uso. Particolare attenzione viene riservata agli strumenti che integrano algoritmi di intelligenza artificiale e apprendimento automatico, nonché alle capacità di questi strumenti di gestire aggiornamenti parziali della soluzione in risposta a nuove informazioni o cambiamenti nei requisiti logistici.
    • Nella terza e ultima parte, verrà presentato come caso di studio l'applicazione pratica di una delle tecniche sopra discusse su un problema reale. Attraverso un'analisi dei risultati ottenuti, si valuterà quanto l'utilizzo di tecniche di ottimizzazione avanzate con aggiornamento parziale della soluzione abbia portato a miglioramenti significativi in termini di riduzione dei costi ed aumento dell'efficienza operativa.

    Tecnologie
    Artificial Intelligence Algoritm, IBM, AWS, Azure, Google Cloud, Python, Java.

    BIG DATA – AI FOR AUTOMATIC DATA HARMONIZATION & DATA LINEAGE

    Sede: Bari/Torino | Durata 3-6 mesi | Scade il 30/06/2025

    Contesto
    La Data Harmonization è un processo cruciale ma estremamente dispendioso in termini di tempo nella gestione dei dati, volto a creare un dataset coerente, accurato e completo a partire da fonti eterogenee. A questo si aggiunge l'importanza del Data Lineage, che garantisce la tracciabilità e la trasparenza del ciclo di vita dei dati. Questa tesi esplora l'applicazione innovativa dell'Intelligenza Artificiale Generativa, in particolare dei Large Language Models (LLMs), per automatizzare e ottimizzare i processi di Data Harmonization e Data Lineage.

    Obiettivi
    Gli LLMs hanno dimostrato notevoli capacità di comprensione e generazione del testo, rendendoli particolarmente adatti a gestire le complessità dell'armonizzazione dei dati e della tracciabilità delle loro trasformazioni. La ricerca indaga il potenziale degli LLMs nell'automazione delle principali fasi della Data Harmonization, compresa la standardizzazione, la pulizia e l'integrazione dei dati, nonché nel miglioramento della tracciabilità del Data Lineage attraverso l'analisi e la documentazione automatizzata delle trasformazioni dei dati.
    Attraverso sperimentazioni e analisi comparative, si valuterà l'efficacia degli LLMs nel ridurre i tempi e i costi associati a questi processi, migliorando al contempo la qualità, l'affidabilità e la trasparenza dei dati armonizzati e tracciati. I risultati attesi potrebbero rappresentare un significativo avanzamento nelle pratiche di gestione dei dati, offrendo soluzioni più rapide, accurate e trasparenti per le organizzazioni che operano con grandi volumi di dati complessi.

    Tecnologie
    Artificial Intelligence Algoritm, IBM, AWS, Azure, Google Cloud.

    BIG DATA – AI DATA TEST AUTOMATION FRAMEWORK

    Sede: Bari/Torino | Durata 3-6 mesi | Scade il 30/06/2025

    Contesto
    L'evoluzione dell'Intelligenza Artificiale (AI) e della gestione dei dati ha aperto nuove opportunità per l'automazione dei test, specialmente nel contesto dei processi di estrazione, trasformazione e caricamento (ETL). Questa tesi propone la realizzazione di un framework innovativo, denominato AI Data Test Automation Framework, progettato per automatizzare e ottimizzare i test dei processi ETL.

    Obiettivi
    La tesi prevede lo studio e l’implementazione di tre principali funzionalità:

    • Generazione di Test Book dal Codice ETL: Il framework sarà in grado di analizzare automaticamente il codice ETL e generare un test book dettagliato, evidenziando le peculiarità dei test presenti nel codice, come i casi di edge, le condizioni di errore e i comportamenti attesi. L'obiettivo è fornire una documentazione strutturata che faciliti la comprensione e la verifica del codice da parte dei tester.
    • Generazione di Dati Sintetici con Validazione Matematica/Statistica: Un modulo del framework sarà dedicato alla generazione di dati sintetici. Questi dati verranno creati per coprire tutte le possibili casistiche di test, garantendo la rappresentazione di scenari reali senza compromettere la privacy su dati sensibili (GDPR compliant). La validità dei dati sintetici sarà assicurata attraverso tecniche di validazione matematica e statistica, permettendo di simulare accuratamente i dati di produzione.
    • Automazione dei Test e Reportistica Dettagliata: Un apposito Agent testerà automaticamente il codice ETL utilizzando i dati sintetici generati. Verranno eseguiti vari test, inclusi test di integrazione, di regressione e di performance. Al termine dei test, il framework genererà un report dettagliato che descriverà i risultati ottenuti, le eventuali anomalie riscontrate e le raccomandazioni per migliorare il codice.

    Tecnologie
    Artificial Intelligence Algoritm, IBM, AWS, Azure, Google Cloud.

    AI-DRIVEN UNIT TEST GENERATION: ENHANCING DEVOPS PRACTICES FOR SOFTWARE QUALITY ASSURANCE

    Sede: Torino/Silea/Padova/Bologna | Durata 3-6 mesi | Scade il 30/06/2025

    Contesto
    Nel contesto dello sviluppo software in cloud su Amazon Web Services (AWS), l'adozione delle pratiche DevOps tramite servizi come AWS CodePipeline rappresenta un approccio fondamentale per garantire Continuous Integration e Continuous Delivery, soddisfacendo standard elevati di qualità del software. Tuttavia, l'integrazione di test automatizzati all'interno delle pipeline può essere complessa, specialmente quando si cerca di generare test esaustivi, di alta qualità e con una buona copertura complessiva. In risposta a questa sfida, questa esperienza propone l'uso di tecniche di generazione di test guidate dall'intelligenza artificiale (IA) all'interno di pipeline DevOps su AWS CodePipeline, seguite da una fase di approvazione manuale per i test generati.

    Obiettivi
    L'obiettivo principale di questo studio è quello di esplorare l’utilizzo dell’IA per generare test automatici al fine di ottimizzare tali pratiche, migliorando la qualità del software e accelerando i cicli di rilascio. La ricerca si basa sulla realizzazione di una pipeline con AWS CodePipeline che dovrà contenere tutte le fasi SDLC tipiche (source, build, test e deploy), identificando la fase di generazione dei test automatici come un'opportunità chiave per introdurre tecniche di generazione di test guidate dall'IA. L’infrastruttura necessaria verrà realizzata mediante AWS CloudFormation, un servizio AWS di Infrastructure as Code (IaC).

    La sperimentazione sarà particolarmente focalizzata su architetture a microservizi (Java, Spring Boot) che forniranno la base sorgente per l'obiettivo di tesi: l'approccio proposto prevede l'utilizzo di strumenti di IA come OpenAI o soluzioni personalizzate, integrati nell'architettura della pipeline stessa, per generare test automatici. Successivamente, i test generati verranno sottoposti a una fase di approvazione per valutarne la qualità, la pertinenza e l'adeguatezza, tali da garantire un controllo qualitativo sulle suite di test generate. I risultati di questa ricerca dovranno dimostrare il potenziale delle tecniche di generazione di test guidate dall'IA nel migliorare la qualità del software, la produttività nello sviluppo e nel rilascio di nuove componenti, sfruttando appieno le pratiche DevOps.

    Tecnologie
    AWS, AWS CodePipeline, AWS CloudFormation, AWS SAM, OpenAI, Java, Spring Boot.

    LA GENERATIVE AI NEI PROCESSI DI GESTIONE DEL SOFTWARE, STUDIO DI UN CASO REALE

    Sede: Milano/Torino e/o Smart working | Durata 6 mesi | Scade il 31/12/2024

    Contesto
    Questo studio di tesi mira ad esplorare e misurare come l'applicazione di modelli di intelligenza artificiale generativa possano supportare nel processo di gestione del software, affrontando aspetti specifici mediante lo studio e la prototipazione di un caso reale.

    Un contesto in continua e rapida evoluzione, che può portare a diversi vantaggi e impatti positivi, contribuendo a migliorare l'efficienza, la produttività e la qualità dello sviluppo del software.

    Obiettivi
    Lo studio di tesi si pone l’obiettivo di esplorare e misurare come l'applicazione di modelli di intelligenza artificiale generativa possano supportare nell’interpretazione dei documenti di specifiche funzionali e nelle successive fasi di disegno e generazione del codice.
    Lo studio sarà applicato ad un caso concreto che preveda l’addestramento di modelli su documenti multiformato, come word ed excel, per la generazione modelli concettuali coerenti e alla generazione del codice software.

    Tecnologie
    LLM, Gaph DB.

    INNOVAZIONE NELLO SVILUPPO: UN'INDAGINE SULL'IMPATTO DELLA GENERATIVE AI

    Sede: Torino e/o Smart Working | Durata 3-6 mesi | Scade il 31/12/2024

    Contesto
    Questa tesi si propone di esplorare il ruolo rivoluzionario della Generative Artificial Intelligence (Generative AI) nell'ambito dello sviluppo di applicazioni Angular. Concentrandosi sull'integrazione di tale tecnologia innovativa, l'obiettivo è migliorare l'efficienza, la coerenza e la produttività complessiva durante il ciclo di sviluppo.

    Obiettivi
    L'indagine inizia con un'esplorazione approfondita delle basi dei framework di sviluppo e dei loro requisiti di sviluppo, per poi introdurre la Generative AI come supporto chiave. Quest'ultima, attraverso la generazione automatica di codice e componenti, mira a semplificare il processo di sviluppo, riducendo i tempi e mitigando potenziali errori umani.

    L'analisi pratica si basa su studi di casi specifici, dimostrazioni di implementazione e misurazioni quantitative delle prestazioni.

    La tesi conclude con linee guida pratiche per gli sviluppatori che desiderano integrare la Generative AI nei loro progetti di sviluppo, evidenziando le potenzialità di questa tecnologia nel migliorare la qualità del codice, la velocità di sviluppo e la sostenibilità a lungo termine delle applicazioni.

    Tecnologie
    Java, Angular, React, Spring.

    AI-POWERED ROBOT FRAMEWORK CODE GENERATOR:
    LA RIVOLUZIONE NELLA TEST AUTOMATION E NELLA CREAZIONE DI BOT RPA

    Sede: Milano/Torino | Durata 3-6 mesi | Scade il 31/12/2024

    Contesto
    La ricerca sottolinea l’importanza della generazione di codice basata sull’intelligenza artificiale come principale acceleratore per raggiungere la massima agilità nei progetti IT. Offre una soluzione pratica per team di test, sviluppatori e in generale per tutti coloro che cercano di migliorare la velocità, l'affidabilità e la scalabilità delle loro iniziative di automazione, siano esse relative alla test automation o al mondo della RPA. Il potenziale dello strumento è dimostrato attraverso casi di studio reali e valutazioni empiriche, che dimostrano la sua capacità di accelerare la creazione del codice mantenendo elevati livelli di copertura dei test e precisione di automazione dei processi.

    Obiettivi
    L’obiettivo di questo percorso di tesi è disegnare e realizzare un tool che automatizzi la generazione di codice sfruttando l'intelligenza artificiale per create dei bot su Robot Framework che svolgano attività di automazione di test e processi robotici (RPA). Robot Framework è uno strumento di automazione versatile, che funge da base per questa ricerca. Il nostro obiettivo è consentire a tester, sviluppatori e professionisti RPA di progettare e generare rapidamente codice su Robot Framework, eliminando la necessità di codifica manuale e accelerando significativamente il processo di automazione.

    Lo sviluppo di questo strumento ruota attorno all'integrazione di algoritmi di intelligenza artificiale avanzati, consentendo allo strumento di interpretare input, requisiti e scenari di test o automazione forniti dagli utenti. Attraverso l’intelligenza artificiale, il processo di generazione del codice è automatizzato, consentendo agli utenti di esprimere i propri requisiti in linguaggio naturale e ottenere in risposta del codice che soddisfi determinate soglie di qualità.

    Tecnologie
    Robot Framework, RPA, AI, LLM.

    STRATEGIE E SFIDE NELL'IMPLEMENTAZIONE E NELLA DISTRIBUZIONE DI LARGE LANGUAGE MODEL (LLM) COME AGENTI INTERATTIVI

    Sede: Milano/Torino | Durata 3-6 mesi | Scade il 31/12/2024

    Contesto
    Questa tesi approfondisce le molteplici strategie, sfide e risultati ottenibili grazie all’utilizzo di Large Language Model (LLM) per l’implementazione di agenti interattivi a supporto della nostra operatività quotidiana. Oggi gli LLM giocano un ruolo centrale nel rimodellare il panorama dell'elaborazione del linguaggio naturale e delle interazioni guidate dall'intelligenza artificiale, pertanto risulta necessario comprendere a fondo le complessità nella loro implementazione per poterne sfruttare al meglio le potenzialità.

    Obiettivi
    In particolare, lo studio è focalizzato sull'implementazione di un agente interattivo basato su LLM. Questo agente è progettato per interpretare le istruzioni umane con un elevato grado di precisione e successivamente interrogare lo strumento appropriato per soddisfare tali richieste, sia esso un tool aziendale, un documento o una risorsa web. L’agente dovrà essere in grado di assolvere compiti diversi, come la generazione di testi sofisticati, la generazione di immagini dinamiche, la segmentazione precisa delle immagini e altre funzionalità avanzate.

    In sintesi, la tesi indaga le strategie, le sfide e i risultati nell'implementazione dei Large Language Model (LLM) come agenti intelligenti in grado di elaborare istruzioni umane e svolgere compiti articolati che prevedono di manipolare diverse tipologie di informazioni, come testo ed immagini.

    Tecnologie
    AI, LLM, Langchain.

    L'INTELLIGENZA ARTIFICIALE COME ACCELERATORE NELL'UTILIZZO DI TOOL LOW CODE

    Sede: Milano/Torino | Durata 3-6 mesi | Scade il 31/12/2024

    Contesto
    Nel contesto dell'evoluzione delle pratiche di sviluppo software, l'approccio low code è emerso come una soluzione innovativa per accelerare il processo di creazione di applicazioni grazie all'adozione di interfacce grafiche intuitive che riducono la necessità di scrivere manualmente grandi quantità di codice. Questo studio si concentra sull'integrazione di tecnologie di Intelligenza Artificiale come acceleratore chiave all'interno di piattaforme con approccio low code, quali IBM Business Automation Workflow (BAW) e PEGA.

    Obiettivi
    La ricerca esplora come l'AI può essere implementata per ottimizzare il ciclo di vita dello sviluppo delle applicazioni, migliorando la produttività degli sviluppatori, riducendo i tempi di sviluppo e garantendo una maggiore qualità del software risultante. Vengono analizzate le funzionalità specifiche di IBM BAW e PEGA che sfruttano l'AI, evidenziando casi di studio, best practice e sfide riscontrate durante l'implementazione di progetti.

    Attraverso un approccio metodologico che include la revisione della letteratura, lo studio di progetti concreti e l'analisi comparativa delle performance, la tesi mira a fornire una panoramica completa sull'impatto dell'AI nell'ecosistema low code. I risultati ottenuti contribuiscono a delineare le prospettive future di questa sinergia, offrendo insight utili per gli sviluppatori e per le aziende che cercano di massimizzare l'efficienza e la qualità nello sviluppo di applicazioni attraverso l'uso di strumenti low code potenziati dall'AI.

    Tecnologie
    Low code, AI, LLM, PEGA, IBM BAW.

    AI-Powered Code Generation: Pioneering the Future of Software Development

    Sede: Torino/Padova/Silea e/o Smart Working | Durata 3-6 mesi | Scade il 31/12/2024

    Contesto
    L’introduzione di nuovi strumenti quali GitHub Copilot e Amazon CodeWhisperer che sfruttano le potenzialità offerte dall’Intelligenza Artificiale per la generazione automatizzata del codice sta aprendo nuovi scenari nella realizzazione di progetti software complessi.

    L’esperienza di tesi proposta è volta ad esplorare questa nuova frontiera, valutando la reale efficacia nell’adozione di questo approccio.

    Obiettivi
    L’analisi dello stato dell’arte di questi nuovi strumenti (comparazione delle funzionalità offerte, identificazione dei punti di forza, dei margini di miglioramento etc.) costituirà lo spunto per avviare esperimenti basati su casi reali, con l’obiettivo di valutarne l’efficacia e permettendo un continuo raffronto rispetto all’approccio tradizionale alla scrittura del software. I criteri di valutazione adottati riguarderanno principalmente la velocità di sviluppo, la qualità del codice prodotto e la facilità di integrazione con le metodologie di produzione del software esistenti.

    La sperimentazione sarà particolarmente focalizzata su architetture a microservizi (Java, Spring Boot) progettate per gestire processi di business complessi in ambito Insurtech: il banco di prova riguarderà l’automatizzazione di alcune fasi degli sviluppi e della quality assurance, in maniera da velocizzare il time-to-market garantendo comunque alti standard qualitativi del prodotto finale.

    Sarà inoltre possibile esplorare altri aspetti riguardanti l’adozione di tali strumenti, quali le implicazioni relative alla sicurezza e alla proprietà intellettuale del codice, nonché i rischi dovuti alla possibile riduzione delle competenze tecniche e capacità creative nel processo di sviluppo del software da parte dei membri più giovani del team.

    I risultati di questa ricerca potranno contribuire ad una maggiore comprensione dell’impatto dell’automazione nella generazione del codice, fornendo una solida base per l’adozione e l’integrazione di tali strumenti in contesti progettuali mission critical e caratterizzati da un alto grado di complessità ed ingegnerizzazione.

    Tecnologie
    GitHub Copilot, Amazon CodeWhisperer, Java, Spring Boot.

    OTTIMIZZAZIONE DELLA SUPPLY CHAIN TRAMITE AI

    Sede: Bari | Durata 6 mesi | Scade il 31/12/2024

    Contesto
    Con l’espressione Supply Chain, o catena di approvvigionamento, si indica il processo che parte dal recupero delle materie prime e termina con la consegna del prodotto finito al cliente seguendo i flussi e stoccaggio delle merci. Ottimizzare questo processo vuol dire ridurre i costi, i tempi di consegna e di trasferimento, aumentare le vendite, i profitti di ogni vendita e migliorare la brand image.

    Obiettivi

  • Realizzare un algoritmo di sourcing basato su AI
  • Studiare e apprendere le dinamiche e-commerce
  • Analizzare i risultati ottenuti dall’applicazione di questo algoritmo e indicare possibili evoluzioni future
  • Tecnologie
    • Deep learning
    • Librerie per analisi dei dati e machine learning (es. SciPy per Python, Apache Spark per JAVA).

    Serverless is the new Microservices: a DevOps perspective

    Sede: Torino/Silea/Padova e/o Smart Working | Durata 3-6 mesi | Scade il 31/12/2024

    Contesto
    Ti sei mai chiesto il significato del termine Serverless? Qual è la vera accezione di questo modello e perché è il trend del momento? L’approccio Serverless consente, tra le varie cose, di ridurre i costi del business e aumentare la velocity di delivery, tuttavia richiede una gestione accorta del rilascio del codice e delle risorse fornite dal Cloud Provider. In questo scenario risulta fondamentale la realizzazione di una architettura per la gestione del Software Development Life Cycle.

    Obiettivi
    Lo scopo di questa tesi è di realizzare un progetto DevOps su Cloud AWS, in grado di gestire un applicativo Serverless integrato con le risorse del Cloud provider.

    • Progetterai, realizzerai e configurerai una infrastruttura Cloud adottando il paradigma Infrastructure as Code
    • Costruirai delle pipeline CI/CD per le differenti componenti dell’applicazione, integrando strumenti di Validation e Test Automation
    • Gestirai il rilascio dell’applicazione su diversi ambienti (sviluppo, test e produzione), i criteri di promozione, la strategia di rilascio (Blue Green, Canary, A/B Test, Rolling) ed eventuale rollback.

    Poiché le componenti da gestire sono svariate e interconnesse tra di loro è necessario che questi singoli aspetti siano automatizzati il più possibile.
    Sei curioso di approfondire gli aspetti più tecnici di un’applicazione enterprise, entrando nel dettaglio dei singoli componenti e capire come questi interagiscono fra di loro? Se sì, questa tesi è quello che stai cercando!

    Tecnologie
    AWS, Terraform, Jenkins.

    Sviluppo di un’architettura per l’integrazione di sistemi e servizi utilizzando la piattaforma Google Cloud

    Sede: Torino | Durata 3-6 mesi | Scade il 31/12/2024

    Contesto
    Lo sviluppo di soluzioni in ambiente Cloud è diventato sempre più popolare tra le aziende negli ultimi anni. Il Cloud offre flessibilità, scalabilità, sicurezza e facilità di implementazione, fattori che lo rendono un’ottima scelta per lo sviluppo di sistemi. A tal proposito, la piattaforma Google Cloud permette di creare un’architettura di integrazione in grado di connettere diversi sistemi e servizi distribuiti, agevolando lo sviluppo di sistemi in modo rapido, efficiente, sicuro ed economico.

    Obiettivi
    Questa proposta di tirocinio ti permetterà di:

    • analizzare il concetto generale di API come strumento di integrazione di sistemi e servizi
    • studiare diversi prodotti presenti sulla piattaforma Google Cloud, fra cui APIGEE
    • sviluppare un caso d’uso (definizione dell’architettura ed implementazione della stessa) utilizzando le tecnologie di Google Cloud
    • analizzare le alternative Cloud di integrazione di sistemi disponibili sul mercato

    Tecnologie
    Tecnologie di Google Cloud.

    PROGRESSIVE WEB APPS

    Torino e/o Smart Working | Durata 6 mesi | Scade il 31/12/2024

    Contesto
    Le innovazioni nella tecnologia e in particolare nella Web User Experience stanno portando alle seguenti esigenze: prestazioni, affidabilità e siti web accattivanti. Queste funzionalità sono il cuore delle soluzioni offerte dalle Progressive Web Apps (PWA). Una Progressive Web App può caricarsi istantaneamente e nascondere i problemi di rete, risponde rapidamente e senza ritardi, sembrare un’app naturale sul dispositivo ed focalizzarsi sull’esperienza dell’utente. Aiutaci a scoprire il perché le PWA sono state scelte da grandi aziende, da Instagram a Google, da Twitter a Pinterest!

    Obiettivi
    Lavorando con noi avrai l’occasione di:

    • Studiare un caso d’uso reale di uno dei nostri clienti in ambito assicurativo
    • Analizzare i vantaggi e gli svantaggi di questa tecnologia
    • Sviluppare un’agenda virtuale per un agente assicurativo per programmare e gestire i suoi appuntamenti. Ci aiuterai ad arricchirla di funzionalità orientate all’esperienza.

    Tecnologie
    Ionic, Angular, JavaScript, TypeScript.

    REALIZZAZIONE APP GESTIONALE FULL STACK IN AWS AMPLIFY

    Torino/Silea/Padova e/o Smart Working | Durata 3-6 mesi | Scade il 31/12/2024

    Contesto
    L’adozione del cloud da parte di molte organizzazioni è ormai un dato di fatto. Molti sono i vantaggi che offre questa soluzione: dalla riduzione dei costi, alla sicurezza, alla scalabilità all’aumento di collaborazione tra i team. Sviluppare web-application in cloud è quindi un’abilità molto richiesta nel mondo lavorativo.

    Obiettivi
    L’obiettivo del lavoro di tesi è quello di realizzare un una web-application per la gestione interna dell’azienda e delle business-unit. L’app dovrà essere sviluppata in modalità full-stack mediante l’utilizzo di AWS Amplify e sarà composta da una base dati in cloud, un back-end con tecnologia serverless e un front-end web con tecnologia client oriented. La prima parte della tesi prevede uno studio delle tecnologie offerte da AWS e una progettazione dell’intera infrastruttura cloud. In particolare sarà necessario individuare il database più adatto (relazionale/NoSQL), individuare il framework di front-end più adatto (Vue, React, Angular etc.), progettare le API di back-end e definire lo stack tecnologico da usare per realizzarle. La seconda parte della tesi prevede la realizzazione dell’applicazione e il relativo rilascio su AWS. Il lavoro verrà organizzato in modalità agile e sarà possibile opzionalmente integrare il lavoro con adozione di Aplify Prediction per inserire funzionalità ML/AI, adozione di Amplify Analitics per il monitoraggio real time e realizzazione di App per Android/iOS.

    Tecnologie
    Cloud AWS. Libera scelta sul linguaggio/framework/db da utilizzare.

    Prima di candidarti prendi visione della nostra informativa sulla privacy.

    Non c'è la tesi che fa per te?

    Possiamo provare a costruire insieme un nuovo titolo di tesi. Avrai il supporto dei nostri esperti per scegliere le tecnologie più adeguate.