首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 使用这个工具后,我将 RAG 的准确性和召回率都提高了两倍!
· 硬核解读Stable Diffusion(系列三)
· 大模型狂飙两年后,“六小龙”开始做减法
· ChatGPT写论文指令全集
· 微软研究团队:Sora核心技术及未来机会研究报告-中英对照版
· AI绘画:InstantID Win11本地安装记录!
· 这个数字人开源项目太牛了,非常全面的项目解决方案(含源码)
· 你要牢记的四个常用AI提示词框架:ICIO、CRISPE、BROKE、RASCEF,有助于获取更加稳定和高质量的内容
· 通俗解读大模型微调(Fine Tuning)
· RAG检索增强技术在知识库智能检索场景下的应用实践
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
提示词
震撼!AI语言模型突破瓶颈,26个提示词原则引领GPT-4响应质量飙升57.7%!你的模型还在等什么?
从Google的
BERT
到GPT系列,它们一步步颠覆了我们对机器理解语言的认知。
语言模型
提示词
GPT-4
大模型
从零开始了解AI大模型 - 概念篇:一文带你走进大模型世界
紧接着,同年10月,Google推出了基于Transformer Encoder的
Bert
,在相同的参数规模下,其效果一度超越了GPT1,成为自然语言处理领域的佼佼者。
大模型
LLM
一文探秘LLM应用开发-Prompt(相关概念)
当时,大部分企业和研究者选择了基于
bert
来解决nlp任务,相关
bert
的研究也是非常的多,网络上关于PLM(预训练大模型)的内容,百分之八十都是与此相关的。
prompt
大模型
大模型
释放潜能:大模型与企业微信SCRM系统的完美结合
• 大模型结合:通过利用大规模的数据和计算资源,训练出具有强大的自然语言理解和生成能力的人工智能模型,如GPT-3、
BERT
等,为SCRM提供更智能和创新的功能,如内容生成、意图识别
SCRM
大模型
大模型
总结!大模型微调(Tuning)的常见方法
return_dict=True) model = get_peft_model(model, peft_config) GPT在P-tuning的加持下可达到甚至超过
BERT
微调
大模型
深入浅出:大语言模型中必不可少的技术——Embedding简介
例如,
BERT
、ELMo和GPT等大型语言模型可以生成上下文相关的embedding表示,这些embedding可以更好地捕捉单词的语义和上下文信息。
embedding
人工智能
人工智能大语言模型微调技术:SFT 、LoRA 、Freeze 监督微调方法
样例 2
BERT
模型是 Google AI 研究院提出的一种预训练模型,通过预训练 + 微调的方式于多个 NLP 下游任务达到当时最先进水平,如实体识别、文本匹配、阅读理解等。
大模型
微调
LLM
【一步一步引导】从零详细地梳理一个完整的 LLM 训练流程
bert
-base-chinese tokenizer 可视化 上述图片来自可视化工具 [tokenizer_viewer]。
大模型
训练
大模型
OCR的终极解法——传统算法VS多模态大模型
· Google的
BERT
: 虽然
BERT
本身是文本处理模型,但它的变种可以扩展到多模态任务
OCR
大模型
文字识别
ChatGPT
什么是ChatGPT?
在
BERT
那个年代,为了训练,大家常常把一句话中随机几个单词遮起来,让计算机用现有的模型预测那几个单词,如果预测准了,就继续加强,如果预测错了,就调整模型,直到上百万上亿次训练之后越来越准。
ChatGPT
OpenAI
大模型
LLM
2023年LLM如何入门?请看这篇综述!
补充一点有趣的,当参数规模超过一定水平时,这些扩大的语言模型不仅可以实现显著的性能提升,还表现出一些特殊的能力,比如上下文学习能力等等,这是小规模语言模型(例如
BERT
)所没有的,这种现象被称为涌现Emergence
大模型
大模型
从零开始了解AI大模型 - 技术篇:万字深度好文人话说大模型技术
然而,在GPT3之前,以
BERT
为代表的Encoder-only架构才是主流。
大模型
大模型
AI大模型LLM可以帮助企业做什么?
2018 年 Google 的研究团队开创性地提出了预训练语言模型
BERT
,该模型在诸多自然语言处理任务中展现了卓越的性能。
大模型
大模型
如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
根据官方的说法,最准确的时候,这个工具估算出来的显存大小与实际估计的误差可能也就50MB左右(例如,
bert
-base-cased模型实际运行需要413.68MB,而这个工具估算的结果是413.18MB
大模型
大模型
MaskGCT:登上GitHub趋势榜榜首的TTS开源大模型
具体来说,使用W2v-
BERT
2.0模型的第17层隐藏状态作为语音编码器的语义特征,编码器和解码器由多个ConvNext块组成。
MaskGCT
声音克隆
<
1
2
3
4
5
6
>
1
2
4
5
6
7
8
9
100