AI Generativa: Quando l'AI Crea
Da ChatGPT alle immagini generate
📌Come Funziona un LLM
- ricevi un prompt,
- il modello calcola probabilità per ogni possibile parola successiva (50.000+ possibilità),
- sceglie la più probabile,
- aggiunge quella parola al testo,
- ripete. È come completamento automatico su sterodi. ChatGPT ha 175 miliardi di parametri — numeri che il modello ha imparato dai dati. Framework consigliato: prompt chiaro, verifica fonti, revisione umana e logging delle risposte critiche. Nota pratica: applica il concetto in un mini scenario reale prima del deploy. Takeaway: Output fluido non significa output corretto: verifica sempre.
🖼️ Infografica
In arrivoMini infografica con schema e parole chiave della sezione.
media/ch08-generative-ai/sec-01/infographic.png
📌Prompt Engineering
Il prompt è cruciale. Diversi prompt portano a risultati completamente diversi. "Dimmi un articolo su AI" è vago. "Scrivi un articolo di 500 parole su come l'AI cambierà il marketing, rivolto a CMO di startup" è specifico e dettagliato. Migliore il prompt, migliore il risultato. Questo è diventato una skill: "Prompt Engineering". Framework consigliato: prompt chiaro, verifica fonti, revisione umana e logging delle risposte critiche. Nota pratica: applica il concetto in un mini scenario reale prima del deploy. Takeaway: Output fluido non significa output corretto: verifica sempre.
🖼️ Infografica
In arrivoMini infografica con schema e parole chiave della sezione.
media/ch08-generative-ai/sec-02/infographic.png
🎯 Punti Chiave
- •LLM predice la prossima parola basandosi sul pattern
- •ChatGPT ha 175 miliardi di parametri
- •Il prompt shape l'output in modo drammatico
- •Context length limita quanto ricorda
- •Learning outcome: progettare un prompt robusto e verificare un output generativo
💬 Discussione in Aula
- •Perché ChatGPT a volte allucinà informazioni false?
- •Come differisce generare immagini vs generare testo?
- •Qual è il ruolo del "randomness" nel generare diverse risposte dallo stesso prompt?
Media del Capitolo
0/4 prontiGli slot con media reale non sono più placeholder; gli altri restano placeholder finché non carichiamo i file.
🎬 Video
In arrivoSpiegazione visuale del capitolo (8-12 min) con esempi pratici.
Durata target: 8-12 min
Path previsto: media/ch08-generative-ai/video.mp4
🎙️ Podcast
In arrivoVersione audio con casi reali, errori comuni e takeaway operativi.
Durata target: 10-15 min
Path previsto: media/ch08-generative-ai/podcast.mp3
🖼️ Infografica
In arrivoSintesi visuale: 5 punti chiave, 1 warning, 1 mini framework.
Path previsto: media/ch08-generative-ai/infographic.png
📄 Risorsa
In arrivoMateriale scaricabile per studio e esercitazione guidata.
Path previsto: media/ch08-generative-ai/handout.pdf
💻 Code Snippets
Generazione testo con OpenAI API
python
Struttura di un prompt ben formato (JSON)
json
🧠 Quiz del Capitolo
1. LLM genera testo come?
2. Prompt engineering migliora?
3. Allucinazione significa?