它通过从数据源中检索信息来辅助LLM生成答案。具体来说,RAG利用搜索算法找到的信息作为背景上下文,将这些查询和检索到的上下文信息整合进发送给LLM的提示中。
这样,模型在回答提出的问题时,可以在搜索到的信息的基础上进行生成,从而提供更准确和全面的答案
RAG原理 :将文本分割成块,然后使用一些 Transformer Encoder 模型将这些块嵌入到向量中,将所有这些向量放入索引中,最后创建一个 LLM 提示,告诉模型回答给定我们在搜索步骤中找到的上下文的用户查询。
在运行时,我们使用同一编码器模型对用户的查询进行向量化,然后搜索该查询向量的索引,找到 top-k 个结果,从我们的数据库中检索相应的文本块,并将它们作为上下文输入到 LLM 提示中
百度智能云千帆平台上线的RAG系统,简单方便使用,比如你可以将微信女盆友聊天记录导出来整理成文档喂进去,实现自动回复
这里以私有数据构建一个可以是实现知识问答的医生角色为例
使用百度千帆大模型平台,1分钟搭建一个agent应用
1 进入百度千帆大模型平台
百度智能云-千帆大模型平台
https://console.bce.baidu.com/qianfan/overview
里面由很多大模型,这里推荐 ERNIE 4.0,内部支持RAG
2 点击 百度智能云千帆 AppBuilder
https://console.bce.baidu.com/ai_apaas/dialogHome
点击创建应用,选择知识问答应用(RAG框架),点击零代码创建
3 配置角色,上传知识库
你现在开始扮演一个医生顾问的角色,用我上传的知识库内容为我解答问题。不要回答就医话题以外的内容。
4 配置要选择知识增强
5 确认后等待几分钟,等他处理完上传文档,等待如下成功后
6 开始测试
而且他还支持配置到微信公众号,可以实现自动回复与问答;
如果在加上AI声音克隆技术,就能实现AI实时语音聊天。
没有回复内容