继续浏览精彩内容
慕课网APP
程序员的梦工厂
打开
继续
感谢您的支持,我会继续努力的
赞赏金额会直接到老师账户
将二维码发送给自己后长按识别
微信支付
支付宝支付

RAG,Langchain 和 LLAMA2

守着星空守着你
关注TA
已关注
手记 398
粉丝 39
获赞 268

RAG(增强检索生成)是一种技术,允许大型语言模型(LLMs)在不重新训练的情况下使用外部信息源回答问题。这是它在Llama 2、Langchain和ChromaDB中的工作原理:

  1. 文档表示 :
  • 文档首先使用 Langchain 转换为称为嵌入的数值表示。

  • ChromaDB,一个向量数据库,存储这些嵌入及其对应的原始文档。

2.检索步骤 :

  • 当用户提问时,Langchain 也会将其问题转换为嵌入向量。
  • 然后 ChromaDB 进行语义搜索,在数据库中找到与问题嵌入向量最相似的文档。
  • 这样就检索到了与用户查询最相关的文档。

3.提示增强 :

  • 检索到的文档用于为大语言模型(LLM)Llama 2 创建上下文。
  • 这个上下文通常被表述为引导 Llama 2 生成答案的提示或额外信息。
  • 提示可能概括检索到的文档或直接引用相关段落。
  1. 答案生成 :
  • Llama 2 在生成答案时会结合提供的上下文及其自身的知识。
  • 这使得 Llama 2 能够通过整合从检索到的文档中获取的信息,来回答那些可能未在其预训练数据中明确涵盖的问题。

RAG 的优势:

  • 提供通过使用外部信息源来确保答案准确无误。
  • 提高了LLM能够回答的问题范围。
  • 允许使用不断更新的信息而无需重新训练LLM。

这里有一些资源,可能会帮助你进一步理解:

代码 : https://www.kaggle.com/code/gpreda/rag-using-llama-2-langchain-and-chromadb

打开App,阅读手记
0人推荐
发表评论
随时随地看视频慕课网APP