LLM 参数设置
参数设置
-
为了最好地发挥 LLM 模型的编程能力,需要调整几个关键参数的设置。
-
以前都是手动调整,其实可以让 LLM 模型自我推荐参数设置。
-
询问每个 LLM 对自己参数设置的建议,目前暂取下面的设置:
| 模型 | contextLength | temperature | topP |
|---|---|---|---|
| gemini1.5 pro | 4096 | 0.2 | 0.95 |
| gpt-4o | 4096 | 0.2 | 0.95 |
| Grok2 beta | 4096 | 0.2 | 0.95 |
| Mistral Large | 8192 | 0.1 | 0.9 |
| GPT-4o mini | 4096 | 0.2 | 0.95 |
| Llama3.2 90b | 4096 | 0.2 | 0.95 |
| 豆包 | 4096 | 0.1 | 1 |
| Qwen2.5 72b | 4096 | 0.2 | 0.9 |
| Llama3.1 405b | 4096 | 0.2 | 0.9 |
- 其中 Mistral Large 显得对上下文窗口的长度很自信,不过从其他模型的回答看,稍大一些的项目才需要这么大的上下文窗口,先用着看看吧。