Dettagli
Come fanno gli LLM a capire il linguaggio umano?
Come puoi specializzare un modello per il tuo lavoro?
Come fanno le AI ad usare documenti privati e informazioni aggiornate?
Un pizzico di teoria, esempi pratici e nessuna illusione di uscire dal TechLab come esperti di AI generativa: questo laboratorio è un’occasione per esplorare insieme, in modo pratico e guidato, come funzionano gli LLM. Partiremo da un problema reale e proveremo a risolverlo con tecniche via via più complesse. Dai prompt di base ai system prompt, fino ad accennare a tecniche di RAG.
L’obiettivo non è “imparare tutto”, ma capire come e quando usare queste tecniche, cosa aspettarsi e come orientarsi nel costruire applicazioni basate sull’AI generativa.
LLM, Prompt engineering, RAG, Transformers: la sessione aiuterà a mettere ordine, chiarire i concetti e fornirà strumenti per capire quando usare cosa.
In questo workshop esploreremo i fondamenti dei sistemi moderni basati su LLM. Attraverso un notebook Python interattivo, metteremo subito in pratica i concetti teorici, con codice funzionante che potrai
testare e rimaneggiare.
Cosa imparerai:
- Transformers e LLM: Un pizzico di teoria per capire con che tipo di modelli lavoreremo.
- Prompt Engineering: Partire da prompt semplici e vederne i limiti.
- System Prompt & Contesto: Introduzione ai system prompt e alla gestione dello “stile” o del “ruolo” del modello.
- RAG (Retrieval-Augmented Generation): Come arricchire le risposte degli LLM con conoscenze esterne.
- Fine-Tuning & Metriche di Valutazione: Panoramica delle tecniche più utilizzate per specializzare un modello su compiti specifici in modo efficiente.
Gli speaker
Alessandro Polidori, Fabrizio Chiovoloni e Daniele Salerno lavorano per Develer. Fanno parte del team AI, dedicato allo sviluppo di soluzioni basate su Deep Learning, principalmente in ambito Computer Vision.
Gli argomenti della serata
- Transformers
– Introduzione al paper “Attention Is All You Need” di Vaswani et al. (2017)
– Concetti chiave: attention, encoder-decoder, parallelizzazione, tokenizzazione. - Setup ambiente interattivo e problema-esempio
- Prompt engineering e System prompt
– Applicazione al problema-esempio
– Panoramica RAG
– Perché utilizzare un RAG
– Applicazione al problema-esempio - Panoramica sulle tecniche di fine-tuning
– Introduzione al fine-tuning
– Metriche di valutazione di un LLM
– Quando ha senso “finetunare” un modello
Obiettivi della sessione
I partecipanti otterranno una panoramica chiara e strutturata del funzionamento dei sistemi basati su LLM, dalle basi teoriche fino agli approcci pratici più in voga. Il workshop fornirà strumenti concreti per orientarsi tra concetti come Transformers, Prompt Engineering, Fine-tuning, RAG, mostrando quando e come impiegarli.
Requisiti per la partecipazione
- Conoscenza base di Python
- Aver usato almeno una volta Jupyter Notebook
- Familiarità con i concetti base del machine/deep learning
Iscriviti subito
LLMs for dummies
Per avere aggiornamenti sui prossimi TechLabs, puoi iscriverti alla newsletter eventi e seguirci nei nostri profili social: