AI Techniques DefinedTerm

Prompt Engineering

Conosciuto anche come: Prompt Design, Prompting

Disciplina di progettazione e ottimizzazione degli input per LLM al fine di ottenere output desiderati.

Updated: 2026-01-03

Definizione

Il prompt engineering è la disciplina di progettazione, test e ottimizzazione degli input (prompt) forniti a un LLM per ottenere output che soddisfino requisiti specifici di qualità, formato, stile e accuratezza.

Non si tratta di “trucchi” ma di design sistematico: strutturare le richieste in modo che il modello possa produrre output ottimali sfruttando le sue capacità.

Tecniche principali

Zero-shot: richiesta diretta senza esempi. Funziona per task semplici su modelli capaci.

Few-shot: fornire esempi di input-output desiderati nel prompt. Migliora significativamente la consistenza del formato e la qualità.

Chain-of-Thought: richiedere ragionamento step-by-step. Migliora performance su task di reasoning, matematica, logica.

System prompts: istruzioni persistenti che definiscono comportamento, personalità, vincoli del modello.

Role prompting: assegnare un ruolo specifico (“Sei un esperto legale…”) per influenzare stile e expertise simulata.

Structured output: specificare formato esatto dell’output (JSON, XML, Markdown) con schema.

Principi di design

Chiarezza: istruzioni esplicite e non ambigue. Il modello non legge la mente.

Specificità: definire formato, lunghezza, stile, vincoli. “Scrivi una risposta” vs “Scrivi una risposta di 2-3 frasi in tono formale”.

Contesto sufficiente: includere le informazioni necessarie per il task. Il modello non ha accesso a conoscenza implicita.

Esempi: quando il formato è importante, mostrarlo con esempi concreti.

Decomposizione: task complessi spezzati in step gestibili.

Considerazioni pratiche

Iterazione: il prompting è empirico. Test su casi rappresentativi, analisi degli errori, raffinamento iterativo.

Versioning: i prompt sono codice. Versionarli, documentarli, testarli sistematicamente.

Model-specific: prompt ottimizzati per GPT-4 possono sottoperformare su Claude o Llama. Testare su ogni modello target.

Costi: prompt lunghi consumano token. Bilanciare completezza e costi, specialmente per applicazioni ad alto volume.

Fraintendimenti comuni

”Il prompt engineering è una moda passeggera”

No. Finché i modelli ricevono input testuali, la qualità dell’input influenzerà la qualità dell’output. Le tecniche evolvono ma la disciplina resta.

”Basta copiare prompt da internet”

I prompt sono context-dependent. Un prompt virale su Twitter raramente funziona out-of-the-box per un caso d’uso specifico. Serve adattamento e test.

”I modelli migliori non hanno bisogno di prompting”

Modelli più capaci beneficiano comunque di prompt ben strutturati. La differenza è che tollerano meglio prompt ambigui, non che non li richiedano.

Termini correlati

  • LLM: modelli a cui si applicano le tecniche di prompting
  • Chain-of-Thought: tecnica specifica di prompting per reasoning
  • Fine-tuning: alternativa al prompting per customizzazione

Fonti

Articoli Correlati

Articoli che trattano Prompt Engineering come argomento principale o secondario.