AI魔法学院客服
百川智能RAG方案总结:搜索出生的百川智能大模型RAG爬坑之路
百川智能通过结合长上下文模型(192k)和搜索增强技术,解决了知识更新和模型幻觉的问题,实现了在5000万tokens数据集中95%的精度。主要优化包括:1) Query拓展,拆解复杂问题以提高检索质量;2) 优化检索链路,采用稀疏检索、向量检索和Rerank结合的方法提高召回率和准确率;3) 自我反省机制,通过大模型自省筛选优质内容。此外,文章还讨论了当前RAG方法的痛点以及百川的技术栈和效果。总体来说,这种结合长窗口与搜索的RAG方案可能是当前较好的一种方式,但仍需考虑成本问题。
 2024-05-06
收藏 复制地址分享海报

今天对百川的RAG方法进行解读,百川智能具有深厚的搜索背景,来看看他们是怎么爬RAG的坑的吧~

总的来说,百川通过长上下文模型(192k)+搜索增强结合的方法来解决知识更新,降低模型幻觉的问题,使得其在5000万tokens的数据集中取得95%的精度。其主要在以下几个方面做优化:

1) Query拓展:这是我自己取的名字,可能不太准确,其主要参考Meta的CoVe[1]以及百川自研的Think Step-Further方法对原始用户输入的复杂问题进行拆解、拓展,挖掘用户更深层次的子问题,借助子问题检索效果更高的特点来解决复杂问题检索质量偏差的问题。

2) 优化检索链路:采用稀疏检索+向量检索+Rerank结合的方法,来提高检索的召回率和准确率。并且其自研的Baichuan-Text-Embedding向量模型也登顶了C-MTEB语义向量评测标准。

3) 自我反省机制:百川智能通过self-Critique大模型自省机制来筛选更优质、知识密度更高的内容。

一、概述

Title:百川智能大模型+搜索增强技术栈给定制大模型提供解决方案

来源:https://mp.weixin.qq.com/s/Hy78rtJuJTehAJIC-HK2Rg

1 Motivation

1.1 当前检索增强RAG方法痛点

1. 

成本高、召回偏低:扩展上下文窗口+引入向量数据库能以非常低的成本提高模型对新知识的接入能力,但是扩展上下文窗口容量有限(128k最多容纳23万汉字,相当于658kb文档),成本比较高,性能下降明显。向量数据库也存在召回率偏低、开发门槛高等缺点。

2. 

用户输入变复杂:与传统关键词或者短语搜索逻辑不太一致,用户输入问题不再是词或者短句,而是转变成自然对话声知识多轮对话数据,问题形式更加多元,紧密关联上下文,输入风格更加口语化。

 

1.2 RAG是当前大模型落地降低幻觉、更新数据的有效方法之一

1. 

行业大模型解决方案有后训练(Post-Train)和有监督微调(SFT),但是仍然无法解决大模型落地的幻觉和实效性问题。

2. 

后训练(Post-Train)和有监督微调(SFT)每次需要更新数据,重新训练,还可能会带来其他问题,成本比较大。

 

2 Methods

省流版总结:

1. 

百川将长窗口与搜索/RAG(检索增强生成)相结合,形成长窗口模型+搜索的完整技术栈。

2. 

百川RAG方案总结:Query 扩展(参考Meta CoVe + 自研Think Step-Further) + 自研Baichuan-Text-Embedding向量模型 + 稀疏检索(BM25、ES) + rerank模型 + 自研Self-Critique技术(过滤检索结果)。

 

2.1 Query扩展

背景:与传统关键词或者短语搜索逻辑不太一致,用户输入问题不再是词或者短句,而是转变成自然对话声知识多轮对话数据,问题形式更加多元,紧密关联上下文,输入风格更加口语化。

目的:拆解复杂的prompt,检索相关子问题,并深度挖掘用于口语化表达中深层次含义,借助子问题检索效果更高的特点来解决复杂问题检索质量偏差的问题。

方法:参考Meta CoVe[1]以及Think Step-Further的方法,对用户原始的Query进行扩展,拓展出多个相关问题,然后通过相关问题去检索相关内容,提高召回率。

百川Query扩展方案:

 

Meta CoVe方案:

 

2.2 自研Embedding模型

数据:在超过1.5T tokens(看着训练百川模型的数据都来训embedding模型了?)。

方法:采用无监督方法(估计类似SimCSE[2]系列),通过自研损失函数解决对比学习方式依赖batchsize问题。

效果:登顶C-MTEB,在分类、聚类、排序、检索和文本相似度5个任务评分取得领先。

 

2.3 多路召回+rerank

方法:稀疏检索+向量检索 + rerank模型。其中稀疏检索应该是指BM25、ES等传统检索的方法,rerank模型百川没有提到,不确定是用大模型来做rerank还是直接训练相关rerank模型来对检索结果排序。

效果:召回率95%,对比其他开源向量模型召回率低于80%。

2.4 self-Critique

方法:让大模型基于 Prompt、从相关性和可用性等角度对检索回来的内容自省,进行二次查看,从中筛选出与 Prompt 最匹配、最优质的候选内容。

目的:提升检索结果的知识密度和广度,降低检索结果中的知识噪声。

 

3 Conclusion

1. 

百川192K上下文模型表现不错,实现了100%的回答精度。

 

2

长上下文窗口模型+搜索增强技术使5000万Tokens数据集达到95%的回答精度。

 

二、总结

1. 

多轮问答等场景的召回和传统搜索引擎的召回分布还不太一样。百川借助子问题检索效果更高的特点,对原始复杂问题进行拆解、拓展来解决复杂问题检索质量偏差的问题。

2. 

对于没见过的语料直接用向量检索的结果可能不太理想。百川在大量语料上利用无监督方法训练embedding模型来优化效果。而行业大模型更倾向于私有的数据,要提升私有数据的训练效果还得继续在私有化数据上训练效果会更佳。

3. 

Query拓展 + 多路召回 + Rerank + self-Critique可能是现阶段比较好的一种RAG方式,但是其也会带来更多成本。总体思路有点像ReAct[3]系列的进阶版本,其在搜索侧和答案修正侧都做了更多的一些工作来优化实际效果。其缺点是需要多次调用大模型,会带来额外的成本,真实线上是否采用这种策略还有待验证。

 

三、参考

[1] Chain-of-Verification Reduces Hallucination in Large Language Models https://arxiv.org/abs/2309.11495

[2] Gao T, Yao X, Chen D. Simcse: Simple contrastive learning of sentence embeddings[J]. arXiv preprint arXiv:2104.08821, 2021.

[3] Yao S, Zhao J, Yu D, et al. React: Synergizing reasoning and acting in language models[J]. arXiv preprint arXiv:2210.03629, 2022.

 

 

 

出自:https://mp.weixin.qq.com/s/GST6zza7h0S0KH4bapRlxA

本文档由网友提供,仅限参考学习,如有不妥或产生版权问题,请联系我们及时删除。 客服请加微信:skillupvip
评论
1 评论
智慧女孩要秃头2024/5/6 9:57:18
这篇关于百川智能在长上下文模型与搜索增强技术结合上的突破真是让人眼前一亮! 通过拆解复杂问题、优化检索链路以及引入自我反省机制,成功实现了95%的高精度,这不仅体现了技术团队的创新能力,更是为解决知识更新和模型幻觉问题提供了新思路。

不过,正如文章所指出的,这种结合长窗口与搜索的RAG方案虽然效果显著,但仍需考虑成本问题。 期待看到百川智能未来如何在保持高精度的同时,也能实现成本的有效控制,让更多人享受到先进技术带来的便利。

总之,这篇文章不仅展示了百川智能在AI领域的领先实力,也为我们提供了宝贵的思考和启示。感谢作者的分享!
20秒读懂全文
伴读
**文章摘要**:

本文介绍了百川智能如何通过结合长上下文模型(192k)和搜索增强技术来解决知识更新和降低模型幻觉的问题。其主要优化手段包括Query拓展、优化检索链路、自我反省机制等,使模型在5000万tokens的数据集中达到95%的精度。

**关键词及可能相关的关键词**:

* 关键词:百川智能、长上下文模型、搜索增强、RAG方法、Query拓展、检索
One More Thing
One More Thing again ...

找组织,加入AI魔法学院群