AI Techniques DefinedTerm

Chain-of-Thought (CoT)

Conosciuto anche come: CoT, Chain of Thought, CoT Prompting

Tecnica di prompting che migliora il reasoning degli LLM richiedendo ragionamento step-by-step esplicito.

Updated: 2026-01-03

Definizione

Chain-of-Thought (CoT) è una tecnica di prompting che migliora le capacità di reasoning degli LLM richiedendo di esplicitare i passaggi intermedi del ragionamento prima di fornire la risposta finale.

Invece di chiedere direttamente la risposta, si chiede al modello di “pensare passo per passo”, producendo un ragionamento verificabile che porta alla conclusione.

Varianti

Few-shot CoT: si forniscono esempi di problemi risolti con ragionamento esplicito. Il modello impara il pattern e lo applica a nuovi problemi.

Zero-shot CoT: basta aggiungere “Let’s think step by step” (o equivalente) al prompt, senza esempi. Sorprendentemente efficace sui modelli moderni.

Self-Consistency: generare multiple chain-of-thought indipendenti e selezionare la risposta più frequente. Migliora l’accuratezza a costo di più compute.

Tree-of-Thought: esplorare multiple linee di ragionamento in parallelo, con backtracking. Più costoso ma più potente per problemi complessi.

Quando usarlo

Efficace per:

  • Problemi matematici e aritmetici
  • Ragionamento logico multi-step
  • Task che richiedono decomposizione
  • Domande che beneficiano di esplicitazione del processo

Meno utile per:

  • Task semplici (lookup fattuale, classificazione diretta)
  • Generazione creativa
  • Task dove il “ragionamento” non è il bottleneck

Considerazioni pratiche

Costi: CoT produce output più lunghi (il ragionamento stesso). Per applicazioni ad alto volume, questo aumenta i costi. Valutare se il miglioramento di accuratezza giustifica il costo.

Latency: più token generati = più tempo. Per applicazioni real-time, CoT può essere troppo lento.

Interpretabilità: il ragionamento esplicito rende l’output più verificabile. Utile per debugging e per capire dove il modello sbaglia.

Fraintendimenti comuni

”CoT fa ragionare il modello come un umano”

No. Produce output che assomiglia a ragionamento umano, ma il processo sottostante è sempre predizione di token. Il modello può generare reasoning convincente ma errato.

”Più step = risposta migliore”

Non necessariamente. Step inutili possono introdurre errori o confondere. Il ragionamento deve essere pertinente al problema.

”CoT funziona sempre meglio di prompting diretto”

Su task semplici, CoT può peggiorare le performance aggiungendo complessità non necessaria. È una tecnica, non una soluzione universale.

Termini correlati

  • Prompt Engineering: disciplina più ampia di cui CoT è una tecnica
  • LLM: modelli a cui si applica CoT
  • RAG: retrieval-augmented generation technique often combined with CoT

Fonti