1、背景介绍
ChatGPT爆火,大模表现的“涌现”现象,证明了大模型的这条路行得通。生成式对话大模型在Turing测试中已逐渐接近人类水平,现在ChatGPT生成的结果难免让人误以为 AI 有意识了开始人格觉醒了,一顿惊慌。前段时间看到吴军博士的一个分享:”ChatGPT不算新技术革命,带不来什么新机会“,里面讲到一个道理,这些都是资本家操作出来割大家韭菜的。其实它只是一个数学模型,它强大的原因是:用到的计算量很大、数据量很大、训练语言模型的方法比以前好。那么在这之前都有哪些机构在研究呢?我们先大概了解下生成式对话模型的发展历史。
2、生成式对话模型发展历史
目前 AI 的发展已经历三个时代:
- 基于规则时代,1966 年计算机发展之初,MIT 的教授基于规则研发了用于心理治疗的 Eliza,有点像我们的”正则表达式“;
- 智能助手时代,资本一顿狂追,成果则良莠不齐,小度、小爱,有点傻傻的”智能“;
- 深度学习时代,典型的ChatGPT。
3、模型家族介绍
3.1 DialoGPT
由微软研发的,基于GPT架构,包含三个参数量版本:117M、345M、762M。它从Reddit上抽取147M对话数据。它的特点是交互信息最大化(MMI):
- 避免生成无意义、无信息量的内容
- 给定目标生成内容,计算生成输入的概率p(source/target)
- 使用该概率作为所有生成结果的rerank参考值。
开源地址:github.com/microsoft/D…
3.2 Meena
由谷歌研发,基于编码器-解码器的模型结构,参数量2.6B,预训练数据341GB。由于人工评价方法缺乏标准体系,它提出人工智能评价体系SSA:合理性(Sensibleness)与具体性(Specificity)的平均值(Average),它的性能显著超越DialoGPT,逼近人类水平。
论文地址:ai.googleblog.com/2020/01/tow…
3.3 CDial-GPT
由清华CoAI小组研发,基于Decoder-Only架构,参数量104M,预训练数据包含了大规模高质量中文开放域对话数据集LCCC,包含Base和Large两个版本:
- Base: 对话数680万,数据来源于7900万微博数据
- Large:1200万,数据来源于7900万微博数据及650万开源对话数据
目前人工测评结果优于原始Transformer模型和中文GPT-2模型:
- 测试数据集:STC微博数据集
- 人工评价维度:流畅度、相关性、信息量
CDial-GPT获得了中文自然语言处理会议NLPCC 2020最佳学生论文奖,收到学术界和工业界的认可。
数据集:github.com/thu-coai/CD…
论文地址:arxiv.org/abs/2008.03…
3.4 BlenderBot
由Meta AI研发,共包含3代版本:
-
第一代2020年
- 模型信息:Encoder-Decoder,参数量2.78B及9.4B
- 预训练数据:Reddit语料
- 微调数据:众包语料
- 主要能力:开放域闲聊+多技能融合,包含人格化、知识性、共情性等
-
第二代2021年
- 模型结构和第一代相同,沿用2.7B参数量的版本
- 新增能力:联网搜索+长时记忆(基于检索增强方法)
-
第三代(2022年)
- 改为采用Decoder-Only结构(基于30B和175B的OPT模型)
- 不再纯端到端生成,而是模块功能化+流水线执行(参数共享)
- 新增能力:完成开放域任务+终生学习
项目地址:blenderbot.ai/
3.5 EVA
由清华CoAI小组研发,共包含2代版本:
-
VEA1.0
- 28亿参数
- 在181G WDC-Dialogue上训练而成
- 开源首个十亿级别中文对话模型
-
EVA2.0
- 28亿参数
- 在精洗细洗的60G WDC-Dialogue上训练而成
- 详细探索了影响对话预训练效果的关键要素
- 目前规模大、效果最好的开源对话模型
- 开源多规模版本模型
目前EVA在所有自动指标,人工指标上显著超越其它开源的baseline模型。
开源地址:github.com/thu-coai/EV…
3.6 PLATO
由百度研发,共包含4代版本
-
第一代PLATO(2019年)
-
基于UniLM,参数量110M
-
方法:
- 引入离散隐变量建模上下文和回复一对多的关系
- 使用角色嵌入向量区分对话中的角色
-
第三代PLATO-XL(2021年)
-
参数量11B
-
方法:
-
性能
- 在连贯性、一致性、信息量、事实性、趣味性上取得优异表现
-
第四代PLATO-K(2022年)
论文地址:arxiv.org/abs/2109.09…
3.7 LaMDA
由Google研发,基于Decoder-Only架构,参数量137B,在2.81T的token上进行了预训练。使用众包数据进行微调,主要能力包含:合理、趣味、安全的开放域闲聊,引入Toolset(TS),包括计算器、翻译器和检索器。
LaMDA: our breakthrough conversation technology
3.8 OPD
由清华CoAI小组联合聆心智能研发,基于UniLM架构,在预训练阶段引入Soft Prompt,促进下游任务上做参数高效的微调,参数量6.3B,在70GB高质量对话数据进行预训练。
主要能力包括:
- 兼顾出色的闲聊能力和知识问答能力。得益于此,OPD的多轮交互能力突出,能够与用户进行多轮、深入的对话交互,性能显著优于EVA2.0,百度PLATO和华为PANGU-BOT
- 支持根据用户反馈实时修复模型生成结果中的问题,从而在交互中不断迭代优化模型。
开源地址:github.com/thu-coai/OP…
3.9 ChatGPT
-
核心技术
-
突出特点:
-
遵循指令能力出色
- 多轮交互中能很好的遵从指令,例如对于之前指令的修改、补充
- 可以轻易的使用prompt让模型完成各种任务,例如角色对话,文字游戏
-
对话历史建模能力突出:在多轮交互中具有很强的长程记忆能力,能够完成很早轮次指令的修改
-
多语言能力强:支持各类主流语言,如英语、汉语、日语等,并且在英语之外的语言上没有明显的性能下降
-
回复信息性强:倾向于生成较长的回复,回复中包含很多相关信息(可能存在幻觉)
-
安全性好:ChatGPT的安全漏洞很少,并且还在持续优化
3.10 Character AI
是一家创业公司,不过创始人为Transformer和LaMDA的作者,估值超过10亿美元,是角色扮演类聊天机器人,主要功能包含:
- 与AI扮演的角色自由聊天
- 通过定义角色描述自由创建角色
- 通过声音、图片和橘色进行多模态交互
- 角色类型多样,包括人物、物品、工具、文字冒险游戏系统等。
突出优势体现为:
- 角色属性多样,泛化性强
- 用户反馈系统和用户社区建设完善
技术路线主要采用大模型+提示,并且外接了文生图模块。
产品地址:beta.character.ai/
4、总结
本文介绍了十款模型家族的模型,从中我们可以看到大模型确实不是新技术,但是ChatGPT做的更好,引入了反馈机制。整体而言整个大模型的发展模型架构都区域统一,参数规模持续增长。目前还有一些量化技术支持将大模型离线部署到手机、电脑等,除了受限于CPU算力,推理慢,生成结果效果已经很不错。