首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 国内厂商语音识别与Whisper评测:现状与概况对比
· 玩一玩阿里通义千问开源版,Win11 RTX3060本地安装记录
· 超详细的 Stable Diffusion ComfyUI 基础教程(一):安装与常用插件
· 【爆肝整理】500+ AI 最佳提示词
· 40个prompt,让你成为麦肯锡高手
· 超级干货,自学stable diffusion,看完这篇就够了
· 学会这招,一个头像变100种风格!
· SD入门教程三:采样器及参数调整
· 7.1k Star!RAGFlow:最新开源OCR+深度文档理解的RAG引擎、大海捞针测试、降低幻觉、服务化API集成进业务!
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
最新大模型面经+感受,4家大厂offer!
了解
bert
和gpt网络结构的细节及其差异吗?
大模型
面试
大模型
从零开始了解AI大模型 - 概念篇:一文带你走进大模型世界
紧接着,同年10月,Google推出了基于Transformer Encoder的
Bert
,在相同的参数规模下,其效果一度超越了GPT1,成为自然语言处理领域的佼佼者。
大模型
LLM
一文探秘LLM应用开发-Prompt(相关概念)
当时,大部分企业和研究者选择了基于
bert
来解决nlp任务,相关
bert
的研究也是非常的多,网络上关于PLM(预训练大模型)的内容,百分之八十都是与此相关的。
prompt
大模型
大模型
释放潜能:大模型与企业微信SCRM系统的完美结合
• 大模型结合:通过利用大规模的数据和计算资源,训练出具有强大的自然语言理解和生成能力的人工智能模型,如GPT-3、
BERT
等,为SCRM提供更智能和创新的功能,如内容生成、意图识别
SCRM
大模型
大模型
总结!大模型微调(Tuning)的常见方法
return_dict=True) model = get_peft_model(model, peft_config) GPT在P-tuning的加持下可达到甚至超过
BERT
微调
大模型
深入浅出:大语言模型中必不可少的技术——Embedding简介
例如,
BERT
、ELMo和GPT等大型语言模型可以生成上下文相关的embedding表示,这些embedding可以更好地捕捉单词的语义和上下文信息。
embedding
人工智能
人工智能大语言模型微调技术:SFT 、LoRA 、Freeze 监督微调方法
样例 2
BERT
模型是 Google AI 研究院提出的一种预训练模型,通过预训练 + 微调的方式于多个 NLP 下游任务达到当时最先进水平,如实体识别、文本匹配、阅读理解等。
大模型
微调
LLM
【一步一步引导】从零详细地梳理一个完整的 LLM 训练流程
bert
-base-chinese tokenizer 可视化 上述图片来自可视化工具 [tokenizer_viewer]。
大模型
训练
LLM
2023年LLM如何入门?请看这篇综述!
补充一点有趣的,当参数规模超过一定水平时,这些扩大的语言模型不仅可以实现显著的性能提升,还表现出一些特殊的能力,比如上下文学习能力等等,这是小规模语言模型(例如
BERT
)所没有的,这种现象被称为涌现Emergence
大模型
大模型
OCR的终极解法——传统算法VS多模态大模型
· Google的
BERT
: 虽然
BERT
本身是文本处理模型,但它的变种可以扩展到多模态任务
OCR
大模型
文字识别
ChatGPT
什么是ChatGPT?
在
BERT
那个年代,为了训练,大家常常把一句话中随机几个单词遮起来,让计算机用现有的模型预测那几个单词,如果预测准了,就继续加强,如果预测错了,就调整模型,直到上百万上亿次训练之后越来越准。
ChatGPT
OpenAI
大模型
大模型
从零开始了解AI大模型 - 技术篇:万字深度好文人话说大模型技术
然而,在GPT3之前,以
BERT
为代表的Encoder-only架构才是主流。
大模型
大模型
AI大模型LLM可以帮助企业做什么?
2018 年 Google 的研究团队开创性地提出了预训练语言模型
BERT
,该模型在诸多自然语言处理任务中展现了卓越的性能。
大模型
大模型
如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
根据官方的说法,最准确的时候,这个工具估算出来的显存大小与实际估计的误差可能也就50MB左右(例如,
bert
-base-cased模型实际运行需要413.68MB,而这个工具估算的结果是413.18MB
大模型
大模型
MaskGCT:登上GitHub趋势榜榜首的TTS开源大模型
具体来说,使用W2v-
BERT
2.0模型的第17层隐藏状态作为语音编码器的语义特征,编码器和解码器由多个ConvNext块组成。
MaskGCT
声音克隆
<
1
2
3
4
5
6
>
1
2
4
5
6
7
8
9
100