Definizione
Chain-of-Thought (CoT) è una tecnica di prompting che migliora le capacità di reasoning degli LLM richiedendo di esplicitare i passaggi intermedi del ragionamento prima di fornire la risposta finale.
Invece di chiedere direttamente la risposta, si chiede al modello di “pensare passo per passo”, producendo un ragionamento verificabile che porta alla conclusione.
Varianti
Few-shot CoT: si forniscono esempi di problemi risolti con ragionamento esplicito. Il modello impara il pattern e lo applica a nuovi problemi.
Zero-shot CoT: basta aggiungere “Let’s think step by step” (o equivalente) al prompt, senza esempi. Sorprendentemente efficace sui modelli moderni.
Self-Consistency: generare multiple chain-of-thought indipendenti e selezionare la risposta più frequente. Migliora l’accuratezza a costo di più compute.
Tree-of-Thought: esplorare multiple linee di ragionamento in parallelo, con backtracking. Più costoso ma più potente per problemi complessi.
Quando usarlo
Efficace per:
- Problemi matematici e aritmetici
- Ragionamento logico multi-step
- Task che richiedono decomposizione
- Domande che beneficiano di esplicitazione del processo
Meno utile per:
- Task semplici (lookup fattuale, classificazione diretta)
- Generazione creativa
- Task dove il “ragionamento” non è il bottleneck
Considerazioni pratiche
Costi: CoT produce output più lunghi (il ragionamento stesso). Per applicazioni ad alto volume, questo aumenta i costi. Valutare se il miglioramento di accuratezza giustifica il costo.
Latency: più token generati = più tempo. Per applicazioni real-time, CoT può essere troppo lento.
Interpretabilità: il ragionamento esplicito rende l’output più verificabile. Utile per debugging e per capire dove il modello sbaglia.
Fraintendimenti comuni
”CoT fa ragionare il modello come un umano”
No. Produce output che assomiglia a ragionamento umano, ma il processo sottostante è sempre predizione di token. Il modello può generare reasoning convincente ma errato.
”Più step = risposta migliore”
Non necessariamente. Step inutili possono introdurre errori o confondere. Il ragionamento deve essere pertinente al problema.
”CoT funziona sempre meglio di prompting diretto”
Su task semplici, CoT può peggiorare le performance aggiungendo complessità non necessaria. È una tecnica, non una soluzione universale.
Termini correlati
- Prompt Engineering: disciplina più ampia di cui CoT è una tecnica
- LLM: modelli a cui si applica CoT
- RAG: retrieval-augmented generation technique often combined with CoT
Fonti
- Wei, J. et al. (2022). Chain-of-Thought Prompting Elicits Reasoning in Large Language Models. NeurIPS
- Kojima, T. et al. (2022). Large Language Models are Zero-Shot Reasoners. NeurIPS
- Wang, X. et al. (2022). Self-Consistency Improves Chain of Thought Reasoning in Language Models. ICLR