Google DeepMind 刚刚发表了一篇新的论文,介绍了如何使用 LLM 来优化 prompt,优化过的 prompt 在 PaLm 2-L / GPT-3.5 / GPT-4 模型中测试,benchmark 的指标都提升了。
优化的方法:
- 创建一个 meta prompt(如何创建 meta prompt 可以参考论文)
- 在每一个优化的步骤生成新的 prompt
- 评估 & 迭代
当然,并不是所有的 prompt 都可以用这种方法来优化,在某些场景上(例如 high-dimensional and complex problems)这种方法的效果还不是特别好。
从长期上来看,让 LLM 来写 & 优化 prompt 应该是一个必然的过程。
详细的论文分析 https://app.copilothub.ai/read/s/1hxkweg1ukj5s
原创文章,作者:曾确令,如若转载,请注明出处:https://www.zengqueling.com/pegrzjsy/