炸裂!百川开源第1个7B多模态大模型 Baichuan-Omni | 能够同时分析图像/视频/音频/文本
突出多模态能力和交互体验的 GPT-4o 强调了其在实际应用中的关键作用,然而它缺乏一个高性能的开源对应物。在本文中,作者介绍了 Baichuan-Omni,这是第一款开源的 7B 多模态大语言模型(MLLM),能够同时处理和分析图像、视频、音频和文本的模态,同时提供先进的模态交互体验和强大性能。
作者提出了一种有效的多模态训练模式,从 7B 模型开始,经过两个阶段的多模态对齐和多任务微调,分别针对音频、图像、视频和文本模态。这种方法使语言模型能够有效地处理视觉和音频数据。
通过在各种全模态和多模态基准测试上展示强大的性能,作者旨在将此贡献作为开源社区在推进多模态理解和实时交互方面的竞争性 Baseline 。
github:
https://github.com/westlake-baichuan-mllm/bc-omni
1 简介
人工智能领域正在迅速发展,尤其是在大语言模型(LLMs)的推动下,以及随后多模态大语言模型(MLLMs)的出现,这标志着机器如何理解和与世界的互动方式发生了转变。像GPT-4o这样的MLLM的出现,以其卓越的多模态能力和丰富的交互体验,不仅突显了这些技术在实际应用中的不可或缺性,同时也为人类与计算机交互设立了新的基准。
尽管MLLM取得了显著的进步,但当前的开源解决方案在多模态能力和用户交互体验方面存在明显的缺陷。这些缺陷极大地阻碍了这些模型在各种应用中的更广泛采用和有效性,从自然语言处理到计算机视觉以及更多领域。
针对这些挑战,作者提出了一种全能多模态语言模型 Baichuan-Omni 以及一种多模态训练方案,旨在促进高级多模态处理和自然用户交互。Baichuan-Omni 的架构如图2所示。Baichuan-Omni 的方案基于三个核心组件:
全模态数据构造。作者利用大量高质量、全方位的数据,结合开源、合成和内部标注的数据集,训练Baichuan-Omni。在多模态对齐预训练阶段,作者整理了包括图像描述、交错数据、OCR数据和图像文本数据的广泛训练语料库。对于音频对齐,作者收集了开源和内部的数据集,用于自动语音识别(ASR)和音频问答(AQA)。在视频对齐领域,作者从开源和内部来源获取视频数据。在多模态监督微调阶段,作者汇编并合成了一个涵盖200多个任务,包括600,000个实例的广泛数据集,涵盖纯文本、音频、图像文本、视频文本和图像音频交互数据。
多模态对齐 在多模态对齐的预训练阶段,作者仔细地将各种模态的编码器和对齐器对齐。最初,作者使用大量的图像文本对齐数据集来训练视觉语言模型。这种基础训练使作者能够利用图像文本训练期间开发的视觉能力来进一步训练视频 Projector 。同时,作者还利用自动语音识别(ASR)数据来训练音频语言模型。在这个坚实的基础之上,作者整合了高质量图像、音频和视频数据,以实现全面的多模态对齐。
多任务微调。 在多模态微调阶段,作者利用一个由开源、合成和内部标注数据组合而成的多任务跨模态交互训练语料库。作者根据预训练模型是否已经学习到事实知识的标准选择数据,用于最终的监督微调(SFT)阶段。在此阶段,作者实现了一种打包技术,将多个样本拼接在一起,使用flash-attention2的cq_len进行有效的样本隔离。通过这种技术,多个样本可以在计算过程中正确隔离,防止不同样本之间的数据混淆。这种方法加速了训练过程并优化了内存使用。
本文的贡献如下:
1. 介绍了Baichuan-Omni,这是一个开源、高性能的基础性全模态模型,能够同时处理文本、图像、视频和音频输入。它还支持包括英语和汉语在内的多种语言的多语言支持。作者的训练框架包括一个全面的流水线,包括构建全模态训练数据、多模态对齐预训练和多模态监督微调,特别注重增强全模态指令遵循能力。
2. 探索了自然多模态人机交互的初期研究。作者的方法从预测音频输入边界开始,同时 streaming 和编码接收到的视觉数据为特征。这些特征由多模态大语言模型(MLLM)进行动态注意计算处理。在音频输入完成后,相应的特征被输入到MLLM进行推理,从而便于处理音频和视频输入。这种集成方法实现了实时处理并增强了系统的交互能力。
3. 已将Baichuan-Omni模型、训练代码和评估脚本公开发布,旨在促进研究社区内的进步。作为该领域的先驱,作者仍致力于推动多模态基础模型的开发及其互动。
2 训练
2.1 高质量的多模态数据
为了训练具有强大能力的全模态模型,作者构建了一个包含高质量文本、图像文本、视频文本、音频文本及其交互的广泛跨模态数据集。
图像数据可分为几种类型:描述符图像、交织图像文本、OCR数据和图表数据。从来源上看,它分为开源数据和合成数据。对于开源数据,作者已经收集了主要的开源数据集,包括PIN-14M,MINT-1T,LAION-5B,OBELIC,等等,用于图像语言分支的第一阶段训练,以及Cauldron,Monkey,ArxivQA,TGDoc,MM-Self-Instruct (Train split) ,MMTable,等等,用于图像语言分支的第二/第三阶段训练。这些公开可用的开源数据集在作者数据 Pipeline 中经过一系列处理步骤和仔细的采样技术。
关于合成数据,其目的是获得更高质量的数据以提升模型的性能。其中一部分数据来源于书籍和论文,经过解析生成交错图像-文本、OCR数据和图表数据。这部分数据非常完整和专业,使其成为高质量和高知识密集度的数据。另一部分则涉及训练专门用于生成图像描述的模型。这些描述从不同角度详细描述图像内容,属于高质量描述数据。
视频数据集包括一系列公开可用的资源,涵盖了多种任务,如视频分类、行为识别和时间定位等。视频-文本来源可以分为两大类:问答数据(QA)和字幕数据。
对于问答数据,作者整合了:NExTVideo,该数据集在LLaVA-NExT中引入,以及ActivityNet-QA(训练拆分)。作者的字幕数据来源包括ShareGPT4Video,这是一个利用GPT-4生成丰富、上下文的视频字幕的大规模数据集,以及WebVid 。为了进一步丰富作者的数据集,作者使用了GPT-4o为YouTube上收集的视频生成多样化的字幕。
每份数据集在作者的汇编中的采样比例都根据这些数据集的相对大小进行仔细确定。这种战略方法确保了作者在最终数据集中对各种视频类型、任务和领域的平衡表示。
音频数据。考虑到音频数据的多样性,作者从各种媒体模态中提取音频,包括不同的录制环境、语言、口音和说话者。遵循之前工作的原则,作者提出音频质量的差异有助于增强语音理解能力。为了实现更复杂的分类和筛选过程,作者实现了一个数据处理 Pipeline ,包括说话者语音录制、方言识别、口音识别、音效检测和质量评估。
为了提高从数据集中生成的音频文本对的质量,作者利用了自家的ASR系统,并结合了多个开源模型来生成多个转录版本。这些生成的数据经过模型集成策略进行有效文本筛选和错误校正后得到进一步优化。
在处理文本语料库时,作者从各种领域收集了数据,如网页、书籍、学术论文、代码等。遵循先前工作中提出的数据处理协议,作者实现了一个选择过程,以提高数据集的多样性和质量。多样性标准确保训练语料库涵盖广泛的话题和语言风格,以适应各种应用。高质量处理可以去除文本数据中的冗余和噪音,提高知识密度。
跨模态交互数据 为了增强模型跨模态交互能力,作者合成了一系列视觉-音频-文本跨模态交互数据,包括图像-音频-文本和视频-音频-文本数据集。对于图像-文本数据,作者将文本数据按1:3比例分割,使用文本转语音(TTS)技术将初始四分之一文本转换为音频描述。作者的音频涵盖44种音色,确保音色丰富多样。这种设置由任务 Prompt 补充,如“请听以下描述图像内容的音频。您的任务是在听后整合图像补充更多信息”,旨在预测文本描述的后三分之三。对于视频-文本数据,作者直接从视频中提取音频作为跨模态音频组件。
2.2 多模态对齐预训练
在本节中,作者将进一步阐明图像语言、视频语言和音频语言分支的预训练和对齐过程。
2.2.1 图像-语言分支
作者使用Siglip-384px作为视觉编码器,该编码器处理一个384384的图像输入并生成182个
Token ,通过一个由两个层MLP和22卷积层组成的视觉 Projector 实现。为了在保持高分辨率图像复杂细节的同时,将输入图像扩展到任意分辨率,作者采用AnyRes [50],该方法将图像分割成网格,并将下采样图像的特征拼接在一起以提供全局上下文。
作者的图像语言分支训练分为三个阶段:
· 第一阶段:作者通过图像描述生成任务,使视觉 Projector 在图像表示和文本之间建立初始对齐。在这一阶段,作者冻结了语言模型和视觉编码器,只以的学习率训练视觉 Projector 。
· 第二阶段:作者冻结LLM模型,并以较小的学习率分别训练 Projector (projector)和视觉编码器(visual encoder)。除了通用的VQA任务外,作者还针对OCR和图表任务专门合成了130k高质量问答数据,以增强模型对抽象视觉理解的把握。此外,作者还引入了交错数据和图像描述数据,有助于保持并促进图像与文本表示之间的更好对齐,减轻在解冻视觉编码器后,由于图像特征空间变化而产生的对齐偏移。
· 第三阶段: 在第二阶段的基础上,作者解冻了LLM,并继续以的学习率更新所有模型组件的参数,以进一步提高视觉语言性能。除了VQA和图像-描述对,作者还引入了交错数据和纯文本数据,以更好地保持LLM的原有能力。
2.2.2 视频-语言分支
基于从图像语言分支预训练中获得的视觉能力,作者使用冻结的视觉编码器(Siglip-384px,与图像语言分支中使用的一致)和语言模型(LLM) Backbone 进行视频 Projector 的训练。这种训练过程采用低学习率以细化与语言模态的对齐。
在训练阶段,输入视频帧以每秒1帧的速度进行采样,最多为每视频48帧。每个输入帧都被重新缩放到最大分辨率为384768像素,以保持最佳的质量和细节。此外,在视频 Projector 之前应用了一个22卷积层。这个卷积步骤有助于调节视频 Token 序列的长度,确保至少182个 Token ,最多546个 Token 。这种深思熟虑的配置在性能和效率之间取得了平衡,有助于有效地进行模型训练,同时管理计算负载。
而非立即使用纯视频-文本对进行视频语言分支的预训练,作者选择了一种更为精细的两阶段方法。首先,作者利用图像-文本预训练数据来增强模型的视觉理解能力。在建立了一个坚实的基础之后,作者逐步将混合图像-文本对和视频-文本对引入训练体系。这种策略已经证明可以获得更好的结果。通过逐渐增强模型的视觉能力,作者为视频预训练流程提供了有价值的指导,使模型更好地理解和整合视频数据的语言复杂性。这种方法强调了采用综合训练策略的重要性,该策略结合了多种数据模式以提高对齐和性能。
2.2.3 音频-语言分支
音频语言分支通过结合来自Whisper-large-v3模型的音频编码器和新引入的音频 Projector ,扩展了一个在视觉和视频数据上预训练的LLM。
音频编码器将音频信号(30s,128 Mel-spectrum)处理成1280个通道的特征表示,而音频 Projector (通常为线性 Projector或MLP)将其映射到LLM的嵌入空间。在投影之前,传统上使用步长为n的池化操作将音频表示降采样为更少的 Token (即帧)。然而,当作者激进地减少音频 Token 的数量时,这种简单的池化方法会导致音频信息损失。在作者的方法中,作者用卷积-门控MLP(Conv-GMLP)替代池化,利用卷积层进行降采样以保留更多的音频信息。
图5说明了Conv-GMLP架构,其功能类似于gated MLP,但用卷积层替代了线性层。这两个卷积层将音频表示的序列长度减少了一个因子n,同时按比例扩展了特征空间。在作者的 Projector 中,与Conv-GMLP一起使用的是残差快捷方式,以实现更高效的梯度反向传播。第4.5.3节的结果证明了,当设置下采样率3n时,在音频性能方面具有强大的鲁棒性。
在训练过程中,LLM保持冻结,仅音频编码器和解码器使用长达音频文本序列(最多4K Token )进行训练。为了提高性能,采用余弦学习率调度器。
2.2.4 图像-视频-音频全方位对齐
图4的右侧部分说明了“Omni-Alignment”阶段,该阶段遵循了图像语言、视频语言和音频语言分支的个体训练。在这个阶段,所有模块在混合高质量图像文本、视频文本和音频文本对的情况下一起进行训练,以发展全面的多模态理解。
2.3 多模态监督微调
在本节中,作者描述了旨在提高模型在各种任务上遵循复杂、多模态指令能力的多模态监督微调过程。作者利用了一个多样化的开源、合成和内部标注数据集,涵盖超过200个不同的任务,总计约60万个对,涉及文本、音频、图像文本、视频文本和图像音频模态。
文本数据。文本数据涵盖广泛的任务,包括知识问答、数学、逻辑推理、代码生成、文本创作、信息处理、基于人格的任务和安全相关数据。为了进一步强化模型处理复杂、多步骤任务的能力,作者包括了具有复杂指令的专门数据集,其中一些数据集包含一个系统消息,用于构建更复杂的场景。
图像理解数据。对于涉及图像理解的任务,作者主要使用了vFLAN数据集,重点关注其指令遵循数据。鉴于部分样本存在质量问题,作者采用基于损失的过滤方法来清理数据集:
作者使用预训练模型计算了所有vFLAN英语指令样例的损失,并将计算出的值拟合到高斯分布中。
如果样本的损失值超出 的范围,则会被移除。1. 损失值小于 的样本通常包含一些简单的问题,例如 Prompt 和回复内容几乎相同的情况。2. 损失值大于 的样本往往存在严重问题,例如 Prompt -回复对被颠倒或者回复中存在错觉。
经过清理的vFLAN指令数据部分被翻译成中文,然后进行手动重新标注以确保高质量的配对。同时,作者还将一些其他开源数据集集成到vFLAN中,包括synthdog-en/zh,手写OCR,街景OCR,参考地面和基于地面的描述对齐任务,以及ImageInWords。这些数据集大部分已经被翻译成中文。对于ImageInWords,作者确保如果图像包含可识别的实体,相应的描述会明确引用该实体的名称(例如,通过品种识别萨摩耶狗,而不仅仅是将其 Token 为“狗”)。
尽管vFLAN涵盖了191项任务,但作者发现它在与指令类型的多样性方面存在不足。为了解决这个问题,作者从作者的文本SFT数据集中采样数据,并将一些 Prompt 渲染成图像,以增加基于图像的指令的多样性。此外,为了增强模型与图像的数学推理能力,生成了一大批涉及图像的多模态数学问题数据集。
在实验中,作者发现向模型中添加过多的外部世界知识,这些知识模型本身并不知道,会导致性能回报下降。为了缓解这一问题,从构建的SFT数据集中排除未知数据。
视频理解数据。视频-文本数据主要来源于VideoInstruct100K数据集。尽管该数据集中的每个视频包含多个指令,但指令往往相对同质,通常专注于简单的视频描述。为了增强基于视频的任务的多样性,作者对每个视频的指令进行语义去重,并将数据集翻译成中文,从而丰富了模型基于视频的任务的种类。
音频理解数据。大部分音频数据是通过TTS 4生成的, Prompt 来自纯文本、图像文本和视频文本的数据集。为了确保合成的音频质量,作者使用ASR模型转录生成的音频,并将转录与原始 Prompt 进行比较。只保留那些准确转录的音频样本作为最终音频 Prompt 。为了进一步丰富音频数据,作者还包括人类录制的音频样本,这些样本捕捉了各种方言、口音和背景噪音。
除了一般的QA任务外,作者还构建了一个特定的ASR数据集,该数据集来源于开源数据和内部日志。为了提高训练效率,作者过滤掉了容易识别的样本,而是专注于更具有挑战性的音频数据进行有监督的微调。
3 实验
3.1 语言性能
3.1.1 评估基准
作者在4个全面的基准测试上进行了评估,包括MMLU,CMMLU,AGIEval和C-Eval。MMLU包括57个独特的任务,包括不同领域的选择题,包括人文科学、社会科学和硬科学。CMMLU代表了一个广泛的评估框架,旨在评估LLM在汉语和文化背景下的复杂知识和推理能力。
AGIEval是一个以人为中心的基准,用于评估基础模型的通用认知和问题解决能力,这些测试是根据为人类参与者设计的官方、公共和资格考试设计的。C-EVAL提供了一个全面的中文评估工具集,用于评估LLM在汉语背景下的高级知识和推理技能,涵盖52个不同学科的13,948个选择题,从人文科学到工程。作者使用零样本测量进行了所有评估。
3.1.2 主要性能
作者将Baichuan-Omni与最先进的专有多模态模型进行了比较,如Gemini 1.5 Pro,GPT-40,以及一系列具有竞争力的开源LLM和MLLM,如VITA,MAP-Neo,Qwen1.5-Chat,Llama3-Instruct和OLMo。作者在表1中列出了在全面基准测试上的主要结果。
如图1所示,Baichuan-Omni在综合基准上显著优于开源的、通用的纯文本LLMs。与开源的多模态模型VITA相比,Baichuan-Omni在中文基准测试上取得了显著优势,例如CMMLU(72.2% vs 46.6%)和C-Eval(68.9% vs 56.7%),并且在AGIEval上(47.7% vs 46.2%)略胜一筹。
3.2 图像理解
3.2.1 评估基准
作者在13个代表性的视觉语言基准测试上评估Baichuan-Omni,包括MMBench-EN,MMBench-CN,M3GIA,SEEDBench,RealWorldQA,MMMU,MathVista,MME,MMVet,TextVQA,OCRBench,ChartQA,以及HallusionBench。
为了确保可重复的评估结果,作者使用VLMEvalKit对所有评估进行统一。所有评估都采用零样本方式进行,遵循模型的原始设置以确保所有模型和基准之间的公平和一致比较。
3.2.2 主要性能
作者将Baichuan-Omni与最先进的专有多模态模型(如Gemini 1.5 Pro,以及GPT-4o)以及一系列具有竞争力的开源多模态模型(如VITA和Qwen2-VL)进行比较。
作者在表2和表3中列出了在VQA(视觉问答)基准测试上的主要结果和在MCQ(多选题和是非题)基准测试上的结果。
如图2和图3所示,Baichuan-Omni在多个视觉任务上全面超过了VITA-8*7b,后者具有12B激活参数。除了在VQA基准测试和MCQ基准测试上表现出色外,作者还展示了与开源图像专业模型(如MiniCPM-Llama3-V 2.5)相当甚至更好的性能。
具体来说,Baichuan-Omni在大多数VQA任务上超过了MiniCPM-Llama3-V 2.5,包括MMBench-CN, SEED-IMG, MME, HallusionBench和MMMU,这些任务需要专家级的感知和推理。然而,尽管在将额外音频模式集成方面具有相对于Qwen2-VL的优势,但Baichuan-Omni在图像任务上的性能与Qwen2-VL之间仍然存在明显的差距。此外,值得注意的是,除了Qwen2-VL之外,开源和闭源模型的巨大差异仍然存在。
3.3 视频理解
3.3.1 评估基准
作者对通用视频理解任务(通用VQA)和开放式视频问答(开放式VQA)进行了全面的评估,以全面评估Baichuan-Omni的视频理解能力。
对于一般的视频理解任务,选择Perception-Test,MVBench,VideoMME,和EgoSchema用于长篇视频-语言理解。作者对所有基准测试报告了top-1准确率。对于VideoMME,作者在"w/o subs"设置下报告了结果。对于开放式视频问答部分,作者选择ActivityNet-QA和MSVD-QA作为评估基准。作者使用GPT评估回答片段的质量。具体来说,使用GPT-3.5-Turbo对答案的正确性进行"Yes-or-No"决策,并从0到5提供一个评分。作者报告"Yes"响应的百分比作为Accuracy,并报告平均评分作为Score。
作者在进行所有评估时采用零样本方法,避免使用复杂的 Prompt 。此外,作者遵循原始模型的设置,关于(最大)帧数、帧采样率等,以实现对所有模型和基准的公平、一致的比较。
3.3.2 主要性能
作者将Baichuan-Omni与最先进的多模态专有模型进行了比较,例如Gemini 1.5 Pro,GPT 4V和GPT 4o,以及一系列具有竞争力的开源多模态模型,如VITA,Qwen2-VL,AnyGPT,VideoLLaMA
2,VideoChat2,LLaVA-NeXT-Video,以及Video-LLaVA。
作者在表4中列出了在通用视频理解基准测试上的主要结果,并在表5中列出了在开放式视频问答上的结果。
表4显示,Baichuan-Omni在Egoschema和MVBench等专有模型上展现了与竞争对手相当的结果,同时在开源多模态模型上实现了强大的性能,这表明Baichuan-Omni具有全面的视频理解能力。
与VITA相比,具有约12亿激活参数的MoE全模态LLM
Baichuan-Omni(7B)在所有通用视频问答基准测试上均优于它,平均提高了约4%。此外,Baichuan-Omni在VideoLLaMA
2、VideoChat2、LLaVA-NeXT-Vide和Video-LLaVA等开源模型上也表现出色。值得注意的是,Baichuan-Omni还在MVBench(43.7%)和Egoschema(55.6%)上超过了专有模型GPT 4V。
关于开放式视频问答基准测试的结果。Open-ended
VQA上的性能如表5所示。Baichuan-Omni在ActivityNet-QA和MSVD-QA的所有开源模型上(包括最新的多模态模型VITA和Qwen2 VL)都展示了最先进的性能(准确率和分数),并击败了专有模型Gemini 1.5 Pro(56.7%)在ActivityNet-QA上的表现。这些出色的结果表明,Baichuan-Omni在开放式问题回答方面也有效,即Baichuan-Omni更擅长生成有信息和描述性的回答。
3.4 音频理解
3.4.1 评估基准
为了验证Baichuan-Omni在音频理解能力方面的表现,作者在三个任务上的基准测试评估结果如下:
自动语音识别(ASR)。这是音频语言模型预训练的基本任务,它直接将音频转换为文本。在ASR的一般场景下,作者在Fleurs中文(zh)和英语(en)测试集,以及WenetSpeech
test_net数据集上报告结果。为了评估在更具挑战性的ASR场景中的性能,作者还包括WenetSpeech test_meeting数据集和KeSpeech测试集的结果,这些数据集评估模型在'会议'和'中文方言'环境下的ASR能力。对于WenetSpeech,作者使用Word Error Rate(WER)和Character Error Rate(CER)作为评估指标,而对于其他数据集,只使用WER。
语音转文本(S2TT)的任务是将源语言的音频信号翻译成目标语言。作者使用Covost2数据集的zh2en和en2zh子集,以BLEU分数作为评估指标,来评估模型在中文和英文之间的S2TT性能。
AIR-Bench的目标是评估AI在遵循给定音频指令方面的对话能力。作者在聊天基准测试集(测试集)上评估聊天性能,使用评分作为指标。
3.4.2 主要性能
对比了Baichuan-Omni与最先进的 Baseline ,包括ASR、S2TT和SER任务,包括最近最先进的音频语言模型Qwen2-Audio-Instruct和大型多模态语言模型VITA。此外,还展示了经典预训练音频语言模型Whisper-large-v3在ASR任务上的性能,以及SALMONN在S2TT任务上的性能。
在ASR基准测试上的结果。 Baichuan-Omni在表6中展示了强大的音频转录能力。Baichuan-Omni主要针对中文语料库。
在整体的中文ASR场景中,与Qwen2-Audio-Instruct相比,Baichuan-Omni在Fleurs测试-zh子集上具有2.0%的WER(2.6%的CER)优势,并在与Qwen2-Audio-Instruct的WenetSpeech测试的比较中,实现了4.1%的WER(4.2%的CER)提升。WenetSpeech上的评估结果持续表明,Baichuan-Omni在VITA之上具有优势。Baichuan-Omni在VITA的CER性能上实现了近50%的改进,无论是测试(7.1% v.s 12.2%),还是测试_meeting(8.9% v.s 16.5%)子集。
在更具挑战性的中文方言基准,KeSpeech上,Baichuan-Omni保持全面领先,平均CER为所有方言的6.7%,优于其他方言。值得注意的是,尽管Baichuan-Omni在中文音频转录方面表现出色,但Baichuan-Omni在英语ASR上也保持了强大的通用性能。作者实现了4.7%的WER,比Qwen2-Audio-Instruct高出11%的WER。
S2TT和AIR-Bench基准上的结果。除了ASR之外,Baichuan-Omni在S2TT和SER任务上都表现出色。评估结果汇总在表7中。
值得注意的是,在从英语到中文的Covost-2 en2zh测试集上翻译时,Baichuan-Omni相对于Qwen2-Audio-Instruct大约提高了7个BLEU分。对于反向翻译,即从中文到英语,作者在Covost-2 zh2en测试集上的性能与Qwen2-Audio-Instruct相当,展示了Baichuan-Omni生成逼真人类语音和声音的优越能力。在AirBench上,Baichuan-Omni在语音和声音方面分别获得了7.42和7.26分,优于Qwen2-Audio-Instruct,显示出Baichuan-Omni在生成逼真人类语音和声音方面的优势。
3.5 消融研究
3.5.1 图像-语言分支
视觉编码器。为了比较Baichuan-Omni中不同视觉编码器的性能,作者在各种参数大小、输入分辨率和输出 Token 计数不同的视觉编码器上进行了实验,总共选择了五种主流视觉编码器:OpenAI的CLIP系列,Google的Siglip系列,苹果的DFN系列,OpenGVLab的InternViT系列,以及BAI的EVA系列,总共14个模型。
所有模型都使用对比学习进行训练,参数范围从300M(ViT-L)到18B。视觉编码器在预训练期间的训练数据使用从400M到10B,输入分辨率从224224到448448,输出 Token 计数从256到1024。所有比较实验在相同的实验条件下进行,具体使用批量大小为8,IFT训练数据(数据比设置为Caption: Interleaved数据: Pure text为0.45: 0.45: 0.1)。
如图8所示,虽然提高分辨率确实会导致性能提升(eva-448与eva-224,InternViT-6B-224px与InternViT-6B-448px),但编码器参数的数量与指标之间并没有直接关系。
总体而言,siglip-so400m-patch14-384
获得了最高的平均分数,并在六项任务中的四项中表现出色,特别是在OCR方面表现尤为出色。考虑到这些因素以及效率问题,作者最终选择了siglip-so400m-patch14-384作为Baichuan-Omni的视觉编码器。
作者进一步研究了在模型中使用AnyRes对视觉语言性能的影响。作者发现,与固定输入384像素相比,使用AnyRes可以显著提高性能,尤其是在依赖于图像细节的任务上,如视觉文档理解,如表9所示。
关于Projector,作者比较了以下方法:
(1) MLP:直接通过一个两层MLP,使尺寸与LLM相匹配,不减少图像
Token 的数量。
(2) C-abs:通过两个卷积层和一个池化层,使尺寸与LLM相匹配,根据需要减少 Token 数量(例如,从576减少到144)。
(3) Concat:将相邻 Token 连接起来,然后通过一个MLP进行处理,允许 Token 数量减少,但增加参数数量(因为MLP的输入维度增加)。
(4) Mean Pool:在通过一个带有步长为2的卷积层进行池化之前,应用一个卷积层,使 Token 数量减少,同时保持与MLP一致的参数数量。
在早期实验中,作者发现使用不同 Projector 的模型在整体图像理解上差别不大,但在添加100万纯中文OCR VQA数据后,它们在中文OCR理解上存在差异。结果表明,虽然使用C-abs Projector 的模型在学习和掌握中文OCR能力方面存在困难,而使用MLP Projector 的模型开始适应数据,并在0.75个epoch后展现出零样本学习的能力。
最终,作者将
Projector 排名如下:MLP > Mean Pool > Concat >
C-abs。另一方面,为了在AnyRes操作(MLP产生729个 Token ,而Mean
Pool、Concat和C-abs各自产生182个 Token )后最小化子图像中的 Token 数量,作者选择Mean Pool作为视觉 Projector 。
3.5.2 视频-语言分支
对于视频模态,作者从三个方面进行深入分析,以全面研究各种因素对模型性能的影响。
帧数。在考虑上下文长度的限制下,作者系统性地调整帧采样率以控制输入视频帧的最大数量。
视觉编码器的分辨率。作者研究了不同视觉编码器分辨率对模型提取有意义视觉特征的能力的影响。作者的调查从固定分辨率(如384 × 384像素)扩展到动态分辨率方法,如AnyRes。
视频语言预训练。作者评估模型在有和没有视频语言预训练时的性能。这种比较有助于作者量化利用大规模多模态数据集进行预训练的好处,可能增强模型理解视频文本关系和泛化到各种视频理解任务的能力。
如表10所示,模型在视频理解方面的性能受到处理输入帧数量的影响。当输入帧的数量从64减少到48时,模型理解和解释视频内容的能力(平均值从54.7%下降到50.1%)明显下降。
在测试模型时,总共输入了48帧。结果表明,使用AnyRes技术的模型与固定分辨率为384x384的模型相比,性能更优。这种性能优势在各种基准测试中都很明显,包括MVBench、VideoMME和ActivityNet-QA。实际上,启用AnyRes的模型相对于固定分辨率的模型平均提高了约5%。
此外,从表的第一行和第三行可以看出,将视频文本预训练纳入模型中会对模型的视频理解能力产生显著影响。例如,在MVBench中,没有预训练的模型大约落后于有预训练的模型6%。
总体而言,作者发现增加视频帧数、提高视觉编码器分辨率以及预训练阶段整合视频文本数据,都能提高模型理解视频的能力。作者将这些因素在输入超出上下文长度(增加帧数和分辨率)的情况下的探索留待未来工作。
3.5.3 音频-语言分支
音频语言分支中的音频Projector在音频与自然语言模态表示之间起到了关键作用。值得一提的是,Conv-GMLPProjector展示了特征下采样率的强大性能鲁棒性。
对于分析,作者在Fleurs、WenetSpeech和KeSpeech的所有ASR基准测试集上测量平均WER,这些基准测试集分别采用了2、4、8三种不同的降采样率进行训练。为了模拟Baichuan-Omni中音频分支的实际训练过程,作者只训练音频编码器和解码器,同时让语言模型保持冻结。这种设置与第3.2.3节中描述的配置一致。
从图6中作者可以观察到,当降采样率设置为2时,音频语言模型实现了最佳的ASR性能,平均WER为7.7%。当降采样率调整为4和8时,ASR性能略有下降,但降低幅度很小(从0.3%到0.6%)。令人惊讶的是,尽管降采样率更大,但降采样率为8的模型优于降采样率为4的模型(8.0%
vs. 8.3%)。这突显了Conv-GMLP的非凡的序列压缩能力。
3.5.4 多模态监督微调
表11和表12比较了Baichuan-Omni在各种图像和视频基准测试上的性能,在有和没有多模态监督微调(SFT)的情况下。结果表明,与仅进行指令微调(IFT)的版本相比,经过多模态SFT的模型在整体性能上表现出优越性。这种改进可以归因于使用高质量、多样化的指令和作者SFT数据构建方法,同时避免了基础模型的能力受损。
Baichuan-Omni的这一版本在将理解集成到视频、图像、文本和音频方面已经达到了领先水平。
尽管其表现令人鼓舞,但每个单一模态的基础能力仍然有显著的提高空间。这包括:(1)增强文本提取能力;(2)支持更长的视频理解;(3)开发一个与LLM集成的端到端文本转语音(TTS)系统;(4)提高不仅理解人类声音,还能理解如流水、鸟鸣和碰撞噪音等自然环境声音的能力。
参考
[0].
BAICHUAN-OMNI TECHNICAL REPORT.