开源新标杆,千问Qwen2系列模型发布,全面超越LLama3
AI魔法学院
2024-06-07
分享海报

简介

一觉醒来,Qwen2终于开源了。

图片

Qwen2 系列模型包括五个尺寸的模型(Qwen2-0.5BQwen2-1.5BQwen2-7BQwen2-57B-A14B Qwen2-72B),这些模型在中文和英文基础上增加了 27 种语言的高质量数据,并在多个评测基准上展现了优异的性能。Qwen2 系列模型在代码和数学能力上有显著提升,尤其是在长文本处理方面,其中 Qwen2-72B-Instruct 模型能够完美处理 128k 上下文长度内的信息抽取任务。此外,Qwen2 系列模型在安全性方面也进行了改进,通过测试显示其在生成有害响应的比例上优于或与其他模型相当。

模型基础信息

图片

Qwen2系列所有尺寸的模型都使用了GQA,以便让大家体验到GQA带来的推理加速和显存占用降低的优势。针对小模型,由于embedding参数量较大,使用了tie embedding的方法让输入和输出层共享参数,增加非embedding参数的占比。

并且在上下文长度方面,所有的预训练模型均在32K tokens的数据上进行训练。而在使用YARN这类方法时,Qwen2-7B-InstructQwen2-72B-Instruct均实现了长达128K tokens上下文长度的支持。

语言支持

基准测试

相比Qwen1.5Qwen2在大规模模型实现了非常大幅度的效果提升。在针对预训练语言模型的评估中,对比当前最优的开源模型,Qwen2-72B在包括自然语言理解、知识、代码、数学及多语言等多项能力上均显著超越当前领先的模型,如Llama-3-70B以及Qwen1.5最大的模型Qwen1.5-110B

Qwen2-72B-Instruct16个基准测试中的表现出色,相比Qwen1.572B模型,Qwen2-72B-Instruct在所有评测中均大幅超越,并且了取得了匹敌Llama-3-70B-Instruct的表现。

而在小模型方面,Qwen2系列模型基本能够超越同等规模的最优开源模型甚至更大规模的模型。相比近期推出的最好的模型,Qwen2-7B-Instruct依然能在多个评测上取得显著的优势,尤其是代码及中文理解上。

支持的框架

微调(AxolotlLlama-FactoryFireflySwiftXTuner

量化(AutoGPTQAutoAWQNeural Compressor

部署(vLLMSGLSkyPilotTensorRT-LLMOpenVinoTGI

本地运行(MLXLlama.cppOllamaLM Studio

AgentRAG(检索增强生成)框架(LlamaIndex, CrewAI, OpenDevin)评测(LMSys, OpenCompass, Open LLM Leaderboard

模型二次开发(Dolphin, Openbuddy

ollama部署

ollama run qwen2

One More Thing

Qwen团队还在训练更大的模型,继续探索模型及数据的Scaling Law。此外,还将把Qwen2扩展成多模态模型,融入视觉及语音的理解。敬请期待吧。

更多内容请参考官方博客:

https://qwenlm.github.io/zh/blog/qwen2/

免部署零成本使用

另外如果大家没有相关资源部署,不妨试试以下的大模型竞技场。

此前,知名的lmsys大模型竞技场和司南评测竞技场就已经先后上架了Qwen2-72b-instruct模型。

163日,CompassArena 司南大模型竞技场上架了Qwen2-72b-instruct,供大家体验试用!

https://opencompass.org.cn/arena

2、早在61日,Qwen2-72B-instruct就已经上线lmsys竞技场

https://arena.lmsys.org/

© THE END

转载请联系本网站获得授权

投稿或版权问题请加微信:skillupvip