首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· RVC和SVC声音模型难找?推荐这个网站
· 再也不用担心 AI 图片脸崩手崩了
· 大模型时代 AI 技术在金融行业的创新应用
· 一旦参透「第一性原理」,便洞悉所有事的本质
· Agent具体实现
· 面向知识图谱的大模型应用
· 国内AI大模型已近80个,哪个最有前途?
· StableDiffusion使用Roop插件一键换脸教程
· 全球最大开源prompt社区即将开放中文版
· 国产AI大模型哪家强?十大维度横评四款主流大模型!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
从零开始了解AI大模型 - 概念篇:一文带你走进大模型世界
紧接着,同年10月,Google推出了基于Transformer Encoder的
Bert
,在相同的参数规模下,其效果一度超越了GPT1,成为自然语言处理领域的佼佼者。
大模型
LLM
一文探秘LLM应用开发-Prompt(相关概念)
当时,大部分企业和研究者选择了基于
bert
来解决nlp任务,相关
bert
的研究也是非常的多,网络上关于PLM(预训练大模型)的内容,百分之八十都是与此相关的。
prompt
大模型
大模型
释放潜能:大模型与企业微信SCRM系统的完美结合
• 大模型结合:通过利用大规模的数据和计算资源,训练出具有强大的自然语言理解和生成能力的人工智能模型,如GPT-3、
BERT
等,为SCRM提供更智能和创新的功能,如内容生成、意图识别
SCRM
大模型
大模型
总结!大模型微调(Tuning)的常见方法
return_dict=True) model = get_peft_model(model, peft_config) GPT在P-tuning的加持下可达到甚至超过
BERT
微调
大模型
深入浅出:大语言模型中必不可少的技术——Embedding简介
例如,
BERT
、ELMo和GPT等大型语言模型可以生成上下文相关的embedding表示,这些embedding可以更好地捕捉单词的语义和上下文信息。
embedding
LLM
【一步一步引导】从零详细地梳理一个完整的 LLM 训练流程
bert
-base-chinese tokenizer 可视化 上述图片来自可视化工具 [tokenizer_viewer]。
大模型
训练
人工智能
人工智能大语言模型微调技术:SFT 、LoRA 、Freeze 监督微调方法
样例 2
BERT
模型是 Google AI 研究院提出的一种预训练模型,通过预训练 + 微调的方式于多个 NLP 下游任务达到当时最先进水平,如实体识别、文本匹配、阅读理解等。
大模型
微调
大模型
OCR的终极解法——传统算法VS多模态大模型
· Google的
BERT
: 虽然
BERT
本身是文本处理模型,但它的变种可以扩展到多模态任务
OCR
大模型
文字识别
ChatGPT
什么是ChatGPT?
在
BERT
那个年代,为了训练,大家常常把一句话中随机几个单词遮起来,让计算机用现有的模型预测那几个单词,如果预测准了,就继续加强,如果预测错了,就调整模型,直到上百万上亿次训练之后越来越准。
ChatGPT
OpenAI
大模型
LLM
2023年LLM如何入门?请看这篇综述!
补充一点有趣的,当参数规模超过一定水平时,这些扩大的语言模型不仅可以实现显著的性能提升,还表现出一些特殊的能力,比如上下文学习能力等等,这是小规模语言模型(例如
BERT
)所没有的,这种现象被称为涌现Emergence
大模型
大模型
从零开始了解AI大模型 - 技术篇:万字深度好文人话说大模型技术
然而,在GPT3之前,以
BERT
为代表的Encoder-only架构才是主流。
大模型
大模型
AI大模型LLM可以帮助企业做什么?
2018 年 Google 的研究团队开创性地提出了预训练语言模型
BERT
,该模型在诸多自然语言处理任务中展现了卓越的性能。
大模型
大模型
如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
根据官方的说法,最准确的时候,这个工具估算出来的显存大小与实际估计的误差可能也就50MB左右(例如,
bert
-base-cased模型实际运行需要413.68MB,而这个工具估算的结果是413.18MB
大模型
RAG
LangChain: LLM 应用聚焦的两大方向,RAG 和 Agents
当时的情况是
BERT
刚刚出来,Transformer 的魔法还没有蔓延到 CV 领域,所以这哥们提的问题相当于需要单独拎出来几个模型,分别把图像识别、意图识别、用于模拟用户行为的代码生成等等单独做一遍
大模型
大模型
MaskGCT:登上GitHub趋势榜榜首的TTS开源大模型
具体来说,使用W2v-
BERT
2.0模型的第17层隐藏状态作为语音编码器的语义特征,编码器和解码器由多个ConvNext块组成。
MaskGCT
声音克隆
<
1
2
3
4
5
6
>
1
2
4
5
6
7
8
9
100