Capitolo 8 di 1553%
Capitolo 8

AI Generativa: Quando l'AI Crea

Da ChatGPT alle immagini generate

📌Come Funziona un LLM

  1. ricevi un prompt,
  2. il modello calcola probabilità per ogni possibile parola successiva (50.000+ possibilità),
  3. sceglie la più probabile,
  4. aggiunge quella parola al testo,
  5. ripete. È come completamento automatico su sterodi. ChatGPT ha 175 miliardi di parametri — numeri che il modello ha imparato dai dati. Framework consigliato: prompt chiaro, verifica fonti, revisione umana e logging delle risposte critiche. Nota pratica: applica il concetto in un mini scenario reale prima del deploy. Takeaway: Output fluido non significa output corretto: verifica sempre.

🖼️ Infografica

In arrivo

Mini infografica con schema e parole chiave della sezione.

media/ch08-generative-ai/sec-01/infographic.png

📌Prompt Engineering

Il prompt è cruciale. Diversi prompt portano a risultati completamente diversi. "Dimmi un articolo su AI" è vago. "Scrivi un articolo di 500 parole su come l'AI cambierà il marketing, rivolto a CMO di startup" è specifico e dettagliato. Migliore il prompt, migliore il risultato. Questo è diventato una skill: "Prompt Engineering". Framework consigliato: prompt chiaro, verifica fonti, revisione umana e logging delle risposte critiche. Nota pratica: applica il concetto in un mini scenario reale prima del deploy. Takeaway: Output fluido non significa output corretto: verifica sempre.

🖼️ Infografica

In arrivo

Mini infografica con schema e parole chiave della sezione.

media/ch08-generative-ai/sec-02/infographic.png

🎯 Punti Chiave

  • LLM predice la prossima parola basandosi sul pattern
  • ChatGPT ha 175 miliardi di parametri
  • Il prompt shape l'output in modo drammatico
  • Context length limita quanto ricorda
  • Learning outcome: progettare un prompt robusto e verificare un output generativo

💬 Discussione in Aula

  • Perché ChatGPT a volte allucinà informazioni false?
  • Come differisce generare immagini vs generare testo?
  • Qual è il ruolo del "randomness" nel generare diverse risposte dallo stesso prompt?

Media del Capitolo

0/4 pronti

Gli slot con media reale non sono più placeholder; gli altri restano placeholder finché non carichiamo i file.

🎬 Video

In arrivo

Spiegazione visuale del capitolo (8-12 min) con esempi pratici.

Durata target: 8-12 min

Path previsto: media/ch08-generative-ai/video.mp4

🎙️ Podcast

In arrivo

Versione audio con casi reali, errori comuni e takeaway operativi.

Durata target: 10-15 min

Path previsto: media/ch08-generative-ai/podcast.mp3

🖼️ Infografica

In arrivo

Sintesi visuale: 5 punti chiave, 1 warning, 1 mini framework.

Path previsto: media/ch08-generative-ai/infographic.png

📄 Risorsa

In arrivo

Materiale scaricabile per studio e esercitazione guidata.

Path previsto: media/ch08-generative-ai/handout.pdf

💻 Code Snippets

Generazione testo con OpenAI API

python

Loading...

Struttura di un prompt ben formato (JSON)

json

Loading...

🧠 Quiz del Capitolo

1. LLM genera testo come?

2. Prompt engineering migliora?

3. Allucinazione significa?