首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· AI高手都在用的10个提示词prompt网站,建议收藏!
· 大模型业务应用中数据准备的要求、难点及解决思路
· 一文搞定 ComfyUI SDXL1.0 完整流程
· Prompt小技巧(18):万能Prompt
· 比 Roop 和 Reactor 更像!IP Adapter 新模型为任何人做写真
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· 大模型狂飙两年后,“六小龙”开始做减法
· Examful.ai
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
· AI音乐热潮下,“神曲工作室”率先失业
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
ChatGPT
什么是ChatGPT?
在
BERT
那个年代,为了训练,大家常常把一句话中随机几个单词遮起来,让计算机用现有的模型预测那几个单词,如果预测准了,就继续加强,如果预测错了,就调整模型,直到上百万上亿次训练之后越来越准。
ChatGPT
OpenAI
大模型
大模型
从零开始了解AI大模型 - 技术篇:万字深度好文人话说大模型技术
然而,在GPT3之前,以
BERT
为代表的Encoder-only架构才是主流。
大模型
大模型
AI大模型LLM可以帮助企业做什么?
2018 年 Google 的研究团队开创性地提出了预训练语言模型
BERT
,该模型在诸多自然语言处理任务中展现了卓越的性能。
大模型
大模型
如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
根据官方的说法,最准确的时候,这个工具估算出来的显存大小与实际估计的误差可能也就50MB左右(例如,
bert
-base-cased模型实际运行需要413.68MB,而这个工具估算的结果是413.18MB
大模型
大模型
MaskGCT:登上GitHub趋势榜榜首的TTS开源大模型
具体来说,使用W2v-
BERT
2.0模型的第17层隐藏状态作为语音编码器的语义特征,编码器和解码器由多个ConvNext块组成。
MaskGCT
声音克隆
RAG
LangChain: LLM 应用聚焦的两大方向,RAG 和 Agents
当时的情况是
BERT
刚刚出来,Transformer 的魔法还没有蔓延到 CV 领域,所以这哥们提的问题相当于需要单独拎出来几个模型,分别把图像识别、意图识别、用于模拟用户行为的代码生成等等单独做一遍
大模型
大模型
领域大模型-训练Trick&落地思考
总结 最后共勉:
BERT
时代况且还在用TextCNN,难道13B的模型就不叫大模型吗?
垂直
训练
大模型
一文彻底搞懂多模态 - 多模态推理
· 预训练任务可能包括将
BERT
经典的MLM和NSP预训练任务扩展到多模态场景等。
多模态推理
大模型
大规模训练系列之技术挑战
NLP 领域的大规模训练发展快速,从
BERT
到 GPT-3,再到 Switch Transformer,无论是模型大小还是计算资源占用都在疾速增长。
开源模型
Transformer
保姆级教程:图解Transformer
Transformer 近两年非常火爆,内容也很多,要想讲清楚,还涉及一些基于该结构的预训练模型,例如著名的
BERT
,GPT,以及刚出的 DALL·E 等。
人工智能
RAG
LLM应用架构之检索增强(RAG)的缘起与架构介绍
实际上这个问题比较模糊,比如
bert
算不算是大模型呢?
LLM
从0到1谈谈智能客服系统的设计与实现
· · 文本向量化:使用
BERT
模型将问题和相似问转化为向量表示。
智能客服
大模型
大模型微调方法总结
对于
BERT
类双向语言模型采用模版(P1, x, P2, [MASK], P3),对于单向语言模型采用(P1, x, P2, [MASK]): 同时加了两个改动: 1、考虑到预训练模型本身的
开源模型
RAG
检索增强生成 (RAG):What, Why and How?
微调嵌入模型:使用
BERT
、ada等现成的嵌入模型为数据块生成嵌入可能适用于大多数用例。
检索增强
大模型
【CLIP系列Paper解读】CLIP: Learning Transferable Visual Models From Natural Language Supervision
Motivation 在NLP中,预训练的方法目前其实已经被验证很成功了,像
BERT
和GPT系列之类的。
OpenAI
自然语言监督
<
1
2
3
4
5
>
1
2
4
5
6
7
8
9
100