手记

04-让LLM理解知识 -Prompt

1 Prompt

Prompt 可理解为用于指导AI模型生成特定类型、主题或格式内容的文本。在NLP中,Prompt 通常由一个问题或任务描述组成,例如“给我写一篇有关RAG的文章”,这句话就是Prompt。

Prompt赋予了LLM小样本甚至零样本学习的能力。

大模型的能力本质上来说是续写,通过编写更好的prompt来指导模型,并因此获得更好的结果。

无具体指令,模型只会续写。输出结果可能出人意料或远高于任务要求。

告知模型去完善句子,因此输出的结果和我们最初的输入是完全符合的。Prompt Engineering就是探讨如何设计出最佳Prompt,用于指导LLM高效完成某项任务

2 Prompt的进阶技巧CoT

Chain of Thought,让模型输出更多的上下文与思考过程,提升模型输出下一个token的准确率。

3 优化Prompt,提升模型推理能力和问答准确率

3.1 分布式引导提问

把解决问题的思路分成多步,引导模型分步执行

3.2 Prompt代码化

LLM通常都会有代码数据,prompt代码化进一步提升模型的推理能力。

关注我,紧跟本系列专栏文章,咱们下篇再续!

作者简介:魔都技术专家,多家大厂后端一线研发经验,在分布式系统设计、数据平台架构和AI应用开发等领域都有丰富实践经验。

各大技术社区头部专家博主。具有丰富的引领团队经验,深厚业务架构和解决方案的积累。

负责:

  • 中央/分销预订系统性能优化
  • 活动&优惠券等营销中台建设
  • 交易平台及数据中台等架构和开发设计
  • 车联网核心平台-物联网连接平台、大数据平台架构设计及优化
  • LLM应用开发

目前主攻降低软件复杂性设计、构建高可用系统方向。

参考:

本文由博客一文多发平台 OpenWrite 发布!

0人推荐
随时随地看视频
慕课网APP