- Chain of though: 有些問題人類在解決的時候是多步驟分解成小問題去解決,對於 LLM 來說,如果引導他將問題拆解成多步驟,就能神奇的提升 LLM 的能力
- 這類的能力會在超大模型顯現,在小模型中不存在(大模型的「開悟時刻」 by 宏毅)
- Let’s think step by step
- 加上這神奇的咒語就可以 zero-shot 的做 CoT
# Paper:
- Chain-of-Thought Prompting Elicits Reasoning in Large Language Models
- Large Language Models are Zero-Shot Reasoners
Backlinks
- No backlinks found