Definizione
Il prompt engineering è la disciplina di progettazione, test e ottimizzazione degli input (prompt) forniti a un LLM per ottenere output che soddisfino requisiti specifici di qualità, formato, stile e accuratezza.
Non si tratta di “trucchi” ma di design sistematico: strutturare le richieste in modo che il modello possa produrre output ottimali sfruttando le sue capacità.
Tecniche principali
Zero-shot: richiesta diretta senza esempi. Funziona per task semplici su modelli capaci.
Few-shot: fornire esempi di input-output desiderati nel prompt. Migliora significativamente la consistenza del formato e la qualità.
Chain-of-Thought: richiedere ragionamento step-by-step. Migliora performance su task di reasoning, matematica, logica.
System prompts: istruzioni persistenti che definiscono comportamento, personalità, vincoli del modello.
Role prompting: assegnare un ruolo specifico (“Sei un esperto legale…”) per influenzare stile e expertise simulata.
Structured output: specificare formato esatto dell’output (JSON, XML, Markdown) con schema.
Principi di design
Chiarezza: istruzioni esplicite e non ambigue. Il modello non legge la mente.
Specificità: definire formato, lunghezza, stile, vincoli. “Scrivi una risposta” vs “Scrivi una risposta di 2-3 frasi in tono formale”.
Contesto sufficiente: includere le informazioni necessarie per il task. Il modello non ha accesso a conoscenza implicita.
Esempi: quando il formato è importante, mostrarlo con esempi concreti.
Decomposizione: task complessi spezzati in step gestibili.
Considerazioni pratiche
Iterazione: il prompting è empirico. Test su casi rappresentativi, analisi degli errori, raffinamento iterativo.
Versioning: i prompt sono codice. Versionarli, documentarli, testarli sistematicamente.
Model-specific: prompt ottimizzati per GPT-4 possono sottoperformare su Claude o Llama. Testare su ogni modello target.
Costi: prompt lunghi consumano token. Bilanciare completezza e costi, specialmente per applicazioni ad alto volume.
Fraintendimenti comuni
”Il prompt engineering è una moda passeggera”
No. Finché i modelli ricevono input testuali, la qualità dell’input influenzerà la qualità dell’output. Le tecniche evolvono ma la disciplina resta.
”Basta copiare prompt da internet”
I prompt sono context-dependent. Un prompt virale su Twitter raramente funziona out-of-the-box per un caso d’uso specifico. Serve adattamento e test.
”I modelli migliori non hanno bisogno di prompting”
Modelli più capaci beneficiano comunque di prompt ben strutturati. La differenza è che tollerano meglio prompt ambigui, non che non li richiedano.
Termini correlati
- LLM: modelli a cui si applicano le tecniche di prompting
- Chain-of-Thought: tecnica specifica di prompting per reasoning
- Fine-tuning: alternativa al prompting per customizzazione
Fonti
- Anthropic Prompt Engineering Guide
- OpenAI Prompt Engineering Guide
- Wei, J. et al. (2022). Chain-of-Thought Prompting Elicits Reasoning in Large Language Models. NeurIPS