AI魔法学院客服
阿里RAG新框架R4:增强检索器-重排序-响应器,5个知识密集任务上都超过Self-RAG等!
R4框架通过增强检索器-重排序-响应器机制解决大型语言模型生成文本时的“幻觉”问题,通过图注意力学习和强化学习动态调整检索文档顺序,并细化文档表示,显著提升在知识密集型任务上的性能,且对不同检索器和语言模型具有良好适应性。
 2024-07-30
收藏 复制地址分享海报

大型语言模型(LLMs)在生成文本时可能会产生错误信息,即“幻觉”问题。尽管检索增强的LLMs通过检索外部数据来减少这种幻觉,但现有的方法通常不考虑检索文档与LLMs之间的细粒度结构语义交互,这在处理长文档时尤其影响回答的准确性。

不同的检索增强方法范式,包括传统的检索器-响应器方法增强检索器-重排序-响应器框架。强调了学习关键检索文档的排序结构的重要性,以帮助LLMs更好地处理与事实知识相关的用户查询。

为了解决这一问题,提出了一个新的大模型RAG框架R4Reinforced Retriever-Reorder-Responder(增强检索器-重排序-响应器)它包含三个主要模块:

o    检索器(Retriever:使用Dense Passage RetrieverDPR)检索相关文档。

o    重排序器(Reorder:通过图注意力学习和强化学习机制动态调整检索文档的顺序。

o    响应器(Responder):将查询和调整后的文档作为输入,生成回答。

R4概览。文档顺序调整:根据反馈,文档在簇中的位置会动态调整。文档表示增强:文档表示会根据训练损失的权重梯度进行更新(彩色查看效果最佳)。

具体过程包括:

o    文档顺序调整:利用图注意力学习将检索文档动态调整到开始、中间和结束位置,以最大化回答质量的强化奖励。

R4框架内,查询和检索到的文档之间异构图构建过程的示意图。

o    文档表示增强:对于生成质量较差的回答,通过文档级别的梯度对抗学习来细化检索文档的表示。

实验使用了3类任务5个数据集,包括生成式问答(Generative QA)、多项选择问答(Multi-choice QA)和对话(Dialogue)任务。

o    R4框架在知识密集型任务上的表现超过了多个强基线模型,包括REALMICRREPLUGSelfmemSELF-RAGFILCOLongLLMLingua

R4模型在公共数据集上的总体结果。T检验表明,R4工作改进在统计上是显著的,p<0.05

1718877425541

o    R4框架对于不同的检索器和LLMs表现出良好的适应性,证明了其在不同文档数量下的鲁棒性。

o    增加检索文档的数量(10->15->20)可以提高模型性能,但性能提升随着检索文档数量的增加而减少。

1718877431037

o   

基线(Self-RAGREALM)也表现出对位置敏感的现象,即开始和结束位置比中间位置更有效

o   

o   

R4无论关键文档的初始位置如何,都能展现出稳定且强健的输出。这证实了文档的排序和优化在本质上增强了LLMsRAG系统中处理用户查询的能力的观点。

o   

·        

·        

·        

https://arxiv.org/pdf/2405.02659
R4: Reinforced Retriever-Reorder-Responder for Retrieval-Augmented Large Language Models
codepaper录用后会发布

出自:https://mp.weixin.qq.com/s/Lsom93jtIr4Pv7DjpQuiDQ

本文档由网友提供,仅限参考学习,如有不妥或产生版权问题,请联系我们及时删除。 客服请加微信:skillupvip
评论
1 评论
自封大师2024/7/30 11:15:11
"这R4框架听起来相当硬核!用图注意力和强化学习来动态调整检索顺序,简直就是为解决大模型‘幻觉’问题量身定制的。细化文档表示这招也绝,直接提升了知识密集型任务的表现,适应性还广,对不同的检索器和语言模型都能友好相处,这简直就是AI界的‘万能钥匙’啊!"
20秒读懂全文
伴读
### 1. 一句话总结文章摘要
**提出了一种新的R4框架,通过增强检索器-重排序-响应器机制,显著提高了大型语言模型在检索增强场景下的准确性和鲁棒性。**

### 2. 生成关键词和可能相关的关键词

**关键词**:
- 大型语言模型(LLMs)
- 检索增强
- 幻觉问题
- R4框架
- 增强检索器-重排序-响应器
- 图注意力学习
- 强化
One More Thing
One More Thing again ...

找组织,加入AI魔法学院群