Nell’era dell’intelligenza artificiale, saper “parlare” ai modelli di linguaggio (LLM) è diventato una competenza cruciale. Non si tratta più solo di porre domande, ma di formulare richieste in modo strategico per ottenere le risposte più accurate, creative e utili possibili. Questa disciplina è nota come Prompt Engineering.
Oggi ci immergeremo in questo affascinante campo, prendendo spunto da una fonte d’eccellenza: il whitepaper di Google intitolato “Prompt Engineering“, scritto dall’esperta Lee Boonstra. Questo documento offre una panoramica approfondita e pratica su come ottimizzare l’interazione con i modelli di IA.
Cos’è il Prompt Engineering e perché è così importante?
In parole semplici, il Prompt Engineering è l’arte e la scienza di progettare i “prompt” (le istruzioni o domande che diamo a un modello di IA) per guidare il modello verso l’output desiderato. Con l’avanzare degli LLM, la qualità dell’input influisce direttamente sulla qualità dell’output. Un prompt ben congegnato può fare la differenza tra una risposta generica e una soluzione su misura.
Il documento di Lee Boonstra per Google esplora diverse tecniche e configurazioni, offrendo una road map per chiunque voglia massimizzare il potenziale dell’IA generativa.
Punti Chiave dal Whitepaper di Google: “Prompt Engineering”
Ecco i pilastri fondamentali su cui si basa l’efficacia del Prompt Engineering, come delineati nel documento di Google:
1. Configurazione dell’Output degli LLM (LLM Output Configuration)
Non si tratta solo di cosa chiedi, ma anche di come il modello genera la risposta. Il whitepaper evidenzia parametri cruciali per affinare l’output:
- Output Length (Lunghezza dell’Output): Controllare la quantità di testo generato è fondamentale per evitare risposte troppo brevi o eccessivamente prolisse.
- Esempio: Se chiedi “Spiegami il cambio climatico”, l’LLM potrebbe dare una risposta molto lunga. Se aggiungi “Spiegami il cambio climatico in 50 parole”, otterrai una sintesi concisa.
- Sampling Controls (Controlli di Campionamento): Questi influenzano la “creatività” o la “determinismo” delle risposte:
- Temperature: Un valore più alto rende l’output più casuale e creativo (ottimo per brainstorming), mentre un valore più basso lo rende più focalizzato e deterministico (ideale per fatti o risposte precise).
- Esempio:
- Temperature alta (es. 0.8): “Scrivi una breve storia sull’incontro tra un unicorno e un astronauta.” -> Potrebbe generare trame molto diverse e inaspettate ad ogni esecuzione.
- Temperature bassa (es. 0.2): “Qual è la capitale dell’Italia?” -> La risposta sarà sempre “Roma”.
- Esempio:
- Top-K e Top-P: Questi parametri regolano la selezione delle parole successive nella generazione.
Top-K
limita la scelta alleK
parole con la probabilità più alta, mentreTop-P
(o nucleus sampling) seleziona le parole la cui probabilità cumulativa supera una sogliaP
. Entrambi aiutano a controllare la diversità del testo generato.
- Temperature: Un valore più alto rende l’output più casuale e creativo (ottimo per brainstorming), mentre un valore più basso lo rende più focalizzato e deterministico (ideale per fatti o risposte precise).
2. Tecniche di Prompting Fondamentali (Prompting Techniques)
Il documento illustra diverse strategie per formulare i prompt:
- General Prompting / Zero-Shot: Questa è la forma più semplice, dove si fornisce un prompt diretto senza esempi. Il modello deve generare una risposta basandosi solo sulle sue conoscenze preesistenti.
- Esempio: “Classifica la seguente frase come positiva, negativa o neutra: ‘Il film era un po’ noioso, ma la recitazione era buona.'”
- One-Shot & Few-Shot: Queste tecniche prevedono la fornitura di uno o più esempi nel prompt per mostrare al modello il formato o il tipo di risposta desiderata. Migliorano notevolmente l’accuratezza e la coerenza.
- Esempio (One-Shot):
- “Classifica la seguente frase come positiva, negativa o neutra.
- Testo: ‘Adoro questo libro, è fantastico!’ Sentimento: Positivo
- Testo: ‘Il film era un po’ noioso, ma la recitazione era buona.’ Sentimento:”
- (L’LLM imparerà dal tuo esempio come formattare la risposta.)
- Esempio (One-Shot):
- System, Contextual e Role Prompting:
- System Prompting: Imposta istruzioni generali o una “personalità” di base per il modello che persistono attraverso le interazioni.
- Esempio (impostato all’inizio della conversazione): “Sei un assistente di scrittura creativo. La tua missione è generare idee originali e stimolanti per racconti.”
- Role Prompting: Assegna un ruolo specifico al modello (es. “Agisci come un esperto di marketing”) per indirizzare il tono e lo stile delle sue risposte.
- Esempio: “Agisci come un nutrizionista esperto. Dammi tre consigli per una colazione equilibrata.”
- Contextual Prompting: Fornisce al modello informazioni di sfondo o un contesto specifico per aiutarlo a generare risposte più pertinenti.
- Esempio: “Considerando che stiamo pianificando un viaggio in Italia a luglio e siamo interessati a storia e arte, quali tre città consiglieresti di visitare e perché?”
- System Prompting: Imposta istruzioni generali o una “personalità” di base per il modello che persistono attraverso le interazioni.
3. Tecniche di Prompting Avanzate per il Ragionamento (Advanced Prompting Techniques)
Per compiti più complessi che richiedono ragionamento, il whitepaper approfondisce:
- Step-Back Prompting: Incoraggia il modello a fare un passo indietro e astrarre principi o premesse fondamentali prima di affrontare il problema specifico, migliorando la capacità di ragionamento.
- Esempio:
- Prompt originale: “Qual è la capitale dello stato che confina a nord con il Texas?”
- Prompt Step-Back: “Qual è il concetto più ampio di questa domanda? (Risposta: Identificare una capitale statale dopo aver determinato uno stato basato su confini geografici.)
- Poi, chiedi all’LLM di rispondere alla domanda originale basandosi sul concetto astratto.
- Esempio:
- Chain of Thought (CoT): Insegna al modello a “pensare ad alta voce” e a mostrare i passaggi intermedi del suo ragionamento prima di arrivare alla risposta finale. Questo è estremamente efficace per problemi complessi.
- Esempio:
- “Giovanni aveva 5 mele. Ne ha date 2 a Maria e ne ha ricevute 3 da Luca. Quante mele ha ora Giovanni? Pensa passo dopo passo.”
- Output atteso dall’LLM:
- “Passo 1: Giovanni inizia con 5 mele.
- Passo 2: Ne dà 2 a Maria, quindi 5 – 2 = 3 mele.
- Passo 3: Ne riceve 3 da Luca, quindi 3 + 3 = 6 mele.
- Risposta: Giovanni ha ora 6 mele.”
- Esempio:
- Self-Consistency: Dopo aver usato il CoT, questa tecnica genera più percorsi di ragionamento e poi seleziona la risposta più coerente o frequente tra essi, aumentando l’affidabilità.
- Esempio: Si chiede al modello di risolvere un problema complesso (es. di logica o matematica) più volte usando CoT, ottenendo diverse “catene di pensiero” e poi si confrontano i risultati per trovare la risposta dominante.
- Tree of Thoughts (ToT): Simile al CoT, ma permette al modello di esplorare più percorsi di ragionamento in modo ramificato, valutando le diverse “filiali” e scegliendo quella più promettente. Ideale per problemi che hanno più soluzioni intermedie o che richiedono esplorazione.
- ReAct (Reason & Act): Combina il ragionamento CoT con la capacità di agire (eseguire azioni o usare strumenti esterni, come la ricerca web). Il modello ragiona su cosa fare e poi esegue l’azione, integrando il ragionamento con l’interazione con l’ambiente esterno.
- Esempio (ipotetico, se l’LLM ha accesso a strumenti):
- Prompt: “Qual è il meteo attuale a Roma e la previsione per domani?”
- Output atteso dall’LLM:
- Ragionamento: Devo prima cercare il meteo attuale a Roma. Poi devo cercare la previsione per domani a Roma. Infine, combinerò queste informazioni.
- Azione: Utilizzo lo strumento ‘Ricerca Web’ con la query ‘meteo attuale Roma’.
- Azione: Utilizzo lo strumento ‘Ricerca Web’ con la query ‘previsioni meteo Roma domani’.
- Risposta: Il meteo attuale a Roma è [X] e la previsione per domani è [Y].”
- Esempio (ipotetico, se l’LLM ha accesso a strumenti):
Conclusione
Il documento “Prompt Engineering” di Lee Boonstra per Google è una risorsa indispensabile per chiunque voglia padroneggiare l’interazione con i modelli di linguaggio. Comprendere e applicare queste tecniche non solo migliorerà la qualità degli output che otterrai, ma ti aprirà anche nuove possibilità nell’utilizzo dell’intelligenza artificiale per risolvere problemi complessi, automatizzare processi e stimolare la creatività.
Il Prompt Engineering non è solo una moda passeggera, ma una competenza fondamentale che continuerà a evolversi insieme all’IA. Inizia a sperimentare con questi suggerimenti e scopri il potenziale che puoi sbloccare!
Link al documento: Prompt Engineering di Google (Lee Boonstra)
- Parlare con l’AI: l’arte (e la scienza) del prompt - Giugno 10, 2025
- Guidare senza pregiudizi: bias cognitivi e leadership a confronto - Giugno 5, 2025
- Il futuro dell’IA è adesso: come Claude 4 e Gemini stanno rivoluzionando il coding - Giugno 3, 2025