AI魔法学院客服
对于大模型RAG技术的一些思考
本文介绍了在公司内部开发知识问答应用的流程,包括文档切片、向量化存储、用户问题转换、匹配与检索、答案生成等步骤。然而,在实际应用中,由于文档种类多、切分方式不合理、内部知识特殊性和用户提问的随意性等问题,导致应用效果不尽如人意。为了解决这些问题,作者采取了多种方法,如重新处理文档内容、语义切分、RAG Fusion检索增强、增加追问机制和微调Embedding句向量模型等。最终,虽然应用效果有所提升,但仍与用户期望相差甚远。作者认为,在严谨场景中,precision比recall更重要,而限制大模型的输出后,precision提升了,但recall降低了,导致给用户造成观感上的不适。总之,实现基于文档内部知识的问答应用是一项复杂的任务,需要综合考虑多种因素。
 2024-04-11
收藏 复制地址分享海报

最近在公司完成了一个内部知识问答应用,实现流程很简单,实际上就是Langchain那一套:

· 对文档进行切片

· 将切片后的文本块转变为向量形式存储至向量库中

· 用户问题转换为向量

· 匹配用户问题向量和向量库中各文本块向量的相关度

· 将最相关的Top 5文本块和问题拼接起来,形成Prompt输入给大模型

· 将大模型的答案返回给用户

具体可以参考下图,

 

这个流程的打通其实特别容易,基本上1天就能把架子搭起来,然后开发好了API对外服务。并且在尝试了几个通用的文档后,觉得效果也不错。

但是,当公司内部真实文档导入之后,效果急转直下。

当时初步分析,有以下几个原因:

1. 文档种类多

doc、ppt、excel、pdf,pdf也有扫描版和文字版。

doc类的文档相对来说还比较容易处理,毕竟大部分内容是文字,信息密度较高。但是也有少量图文混排的情况。

Excel也还好处理,本身就是结构化的数据,合并单元格的情况使用程序填充了之后,每一行的信息也是完整的。

真正难处理的是ppt和pdf,ppt中包含大量架构图、流程图等图示,以及展示图片。pdf基本上也是这种情况。

这就导致了大部分文档,单纯抽取出来的文字信息,呈现碎片化、不完整的特点。

2. 切分方式

如果没有定制切分方式,则是按照一个固定的长度对文本进行切分,同时连续的文本设置一定的重叠。

这种方式导致了每一段文本包含的语义信息实际上也是不够完整的。同时没有考虑到文本中已包含的标题等关键信息。

这就导致了需要被向量化的文本段,其主题语义并不是那么明显,和自然形成的段落显示出显著的差距,从而给检索过程造成巨大的困难。

3. 内部知识的特殊性

大模型或者句向量在训练时,使用的语料都是较为通用的语料。这导致了这些模型,对于垂直领域的知识识别是有缺陷的。它们没有办法理解企业内部的一些专用术语,缩写所表示的具体含义。这样极大地影响了生成向量的精准度,以及大模型输出的效果。

4. 用户提问的随意性

实际上大部分用户在提问时,写下的query是较为模糊笼统的,其实际的意图埋藏在了心里,而没有完整体现在query中。使得检索出来的文本段落并不能完全命中用户想要的内容,大模型根据这些文本段落也不能输出合适的答案。

例如,用户如果直接问一句“请给我推荐一个酒店”,那么模型不知道用户想住什么位置,什么价位,什么风格的酒店,给出的答案肯定是无法满足用户的需求的。

问题解决方法

对于以上问题,我采取了多种方式进行解决,最终应用还是能够较好的满足用户的需求。

1. 对文档内容进行重新处理

针对各种类型的文档,分别进行了很多定制化的措施,用于完整的提取文档内容。这部分基本上脏活累活,

· Doc类文档还是比较好处理的,直接解析其实就能得到文本到底是什么元素,比如标题、表格、段落等等。这部分直接将文本段及其对应的属性存储下来,用于后续切分的依据。

· PDF类文档的难点在于,如何完整恢复图片、表格、标题、段落等内容,形成一个文字版的文档。这里使用了多个开源模型进行协同分析,例如版面分析使用了百度的PP-StructureV2,能够对Text、Title、Figure、Figure caption、Table、Table caption、Header、Footer、Reference、Equation10类区域进行检测,统一了OCR和文本属性分类两个任务。

 

· PPT的难点在于,如何对PPT中大量的流程图,架构图进行提取。因为这些图多以形状元素在PPT中呈现,如果光提取文字,大量潜藏的信息就完全丢失了。于是这里只能先将PPT转换成PDF形式,然后用上述处理PDF的方式来进行解析。

· 当然,这里还没有解决出图片信息如何还原的问题。大量的文档使用了图文混排的形式,例如上述的PPT文件,转换成PDF后,仅仅是能够识别出这一块是一幅图片,对于图片,直接转换成向量,不利于后续的检索。所以我们只能通过一个较为昂贵的方案,即部署了一个多模态模型,通过prompt来对文档中的图片进行关键信息提取,形成一段摘要描述,作为文档图片的索引。效果类似下图。

 

2. 语义切分

对文档内容进行重新处理后,语义切分工作其实就比较好做了。我们现在能够拿到的有每一段文本,每一张图片,每一张表格,文本对应的属性,图片对应的描述。

对于每个文档,实际上元素的组织形式是树状形式。例如一个文档包含多个标题,每个标题又包括多个小标题,每个小标题包括一段文本等等。我们只需要根据元素之间的关系,通过遍历这颗文档树,就能取到各个较为完整的语义段落,以及其对应的标题。

有些完整语义段落可能较长,于是我们对每一个语义段落,再通过大模型进行摘要。这样文档就形成了一个结构化的表达形式:

id

text

summary

source

type

image_source

1

文本原始段落

文本摘要

来源文件

文本元素类别(主要用于区分图片和文本)

图片存储位置(在回答中返回这个位置,前端进行渲染)

3. RAG Fusion

检索增强这一块主要借鉴了RAG Fusion技术,这个技术原理比较简单,概括起来就是,当接收用户query时,让大模型生成5-10个相似的query,然后每个query去匹配5-10个文本块,接着对所有返回的文本块再做个倒序融合排序,如果有需求就再加个精排,最后取Top K个文本块拼接至prompt。

 

实际使用时候,这个方法的主要好处,是增加了相关文本块的召回率,同时对用户的query自动进行了文本纠错、分解长句等功能。但是还是无法从根本上解决理解用户意图的问题。

4. 增加追问机制

这里是通过Prompt就可以实现的功能,只要在Prompt中加入“如果无法从背景知识回答用户的问题,则根据背景知识内容,对用户进行追问,问题限制在3个以内”。这个机制并没有什么技术含量,主要依靠大模型的能力。不过大大改善了用户体验,用户在多轮引导中逐步明确了自己的问题,从而能够得到合适的答案。

5. 微调Embedding句向量模型

这部分主要是为了解决垂直领域特殊词汇,在通用句向量中会权重过大的问题。比如有个通用句向量模型,它在训练中很少见到“SAAS”这个词,无论是文本段和用户query,只要提到了这个词,整个句向量都会被带偏。举个例子:

假如一个用户问的是:我是一个SAAS用户,我希望订购一个云存储服务。由于SAAS的权重很高,使得检索匹配时候,模型完全忽略了后面的那句话,才是真实的用户需求。返回的内容可能是SAAS的介绍、SAAS的使用手册等等。

这里的微调方法使用的数据,是让大模型对语义分割的每一段,形成问答对。用这些问答对构建了数据集进行句向量的训练,使得句向量能够尽量理解垂直领域的场景。

总结

经过这么一套组合拳,系统的回答效果从一开始的完全给不了帮助以及胡说八道,到了现在可以参考的程度。但是与用户实际期望还是相差甚远。

这里不由得让我思考了下整个过程,RAG的本意是想让模型降低幻想,同时能够实时获取内容,使得大模型给出合适的回答。

在严谨场景中,precision比recall更重要。

如果大模型胡乱输出,类比传统指标,就好比recall高但是precision低,但是限制了大模型的输出后,提升了precision,recall降低了。所以给用户造成的观感就是,大模型变笨了,是不是哪里出问题了。

总之,这个balance很难取,我对比了下市面主流的一些基于单篇文档的知识库问答,比如WPS AI,或者海外的ChatDoc。我发现即使基于单篇文档回答,它们在我们垂直领域的文档的幻想问题还是很严重。但是输出的答案不认真看的话,确实挺惊艳。例如问个操作步骤问题,文档压根没这个内容,但是它一步步输出的极其自信。

反正最后就想感慨一下,RAG确实没有想的那么容易。

 

 

 

出自:https://zhuanlan.zhihu.com/p/670432927?utm_psn=1725069788588687360

本文档由网友提供,仅限参考学习,如有不妥或产生版权问题,请联系我们及时删除。 客服请加微信:skillupvip
评论
1 评论
种花家的兔子2024/4/11 10:28:46
这篇文章让我深感知识问答应用的开发之不易。在实际应用中,会遇到各种预料之外的问题,如文档种类多、切分方式不合理等,这些都极大地影响了应用的效果。虽然作者已经采取了一些措施来解决这些问题,但效果仍然与用户期望有差距。

我直觉上认为,知识问答应用的核心在于如何准确理解用户的问题,并从海量的文档中找到最合适的答案。这需要在技术和数据上都做足功夫,才能尽可能提高precision和recall。然而,从文章来看,这似乎是一项极其复杂的任务,需要综合考虑多种因素。

作者提到,在严谨场景中,precision比recall更重要。这一点我深有同感。因为如果一个应用经常给出错误的答案,那么用户就会失去信任,从而不再使用它。然而,限制大模型的输出以提高precision,又会导致recall降低,这确实是一个两难的问题。

总的来说,这篇文章让我感受到了知识问答应用开发的艰辛和复杂性。我认为,要想做出一个真正优秀的应用,需要在技术和数据上都下足功夫,同时也需要关注用户的实际需求和体验。只有这样,才能真正实现知识问答应用的价值。
20秒读懂全文
伴读
文章摘要:
本文介绍了一个公司内部知识问答应用的实现流程,包括文档切片、向量化存储、用户问题转换、向量匹配、答案返回等步骤。文章详细分析了在导入公司内部真实文档后效果急转直下的原因,包括文档种类多、切分方式不合理、内部知识特殊性和用户提问的随意性等。为解决这些问题,作者采取了多种措施,如重新处理文档内容、语义切分、RAG Fusion检索增强、增加追问机制和微调Embeddi
One More Thing
One More Thing again ...

找组织,加入AI魔法学院群