首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 第一性原理以及第一性原理是怎么帮马斯克成为首富的
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· AI声音克隆 | 最全最简教程(权威版)
· ComfyUI官方使用手册【官网直译+关键补充】
· Coze多智能体(Multi-Agents)模式体验!
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· Stable Diffusion 30分钟打造AI 写真照片生成器|海马体照相馆这次真的要木得了
· 从第一性原理看大模型Agent技术
· 精通百种语言的翻译AI来了!Meta推出,免费、开源!
· 6个最佳开源TTS引擎
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
深入探秘:百川7B大模型的训练代码解析,揭秘巨无霸语言模型背后的奥秘
先说下大模型的理论:大模型的底座模型就是多层的
transformer
,由于是因果语言建模,它只用了
transformer
的decoder模块。
大模型
大模型
AI扫盲指南!什么是大模型?什么是GPT?什么prompt?什么是大模型参数?LLaMA2-70b中70b是什么?
GPT是Generative Pre-trained
Transformer
的缩写,是一种基于深度学习的文本生成模型。
大模型
开源
Stability AI开源上新:3D生成引入视频扩散模型
具体到架构方面,SV3D包含以下关键组成部分: § UNet:SV3D是在SVD的基础上构建的,包含一个多层UNet,其中每一层都有一系列残差块(包括3D卷积层)和两个分别处理空间和时间信息的
Transformer
sv3d
建模
大模型
预训练对话大模型深度解读
Large两个版本: Base: 对话数680万,数据来源于7900万微博数据 Large:1200万,数据来源于7900万微博数据及650万开源对话数据 目前人工测评结果优于原始
Transformer
大模型
通俗解读大模型微调(Fine Tuning)
根据我们在《揭密
Transformer
:大模型背后的硬核技术》一文中介绍的大模型背后的
Transformer
模型,Prompt Tuning是发生在Embedding这个环节的。
大模型
微调
Sora
OpenAI Sora视频生成模型技术报告中英全文+总结+影响分析
•技术细节写得比较泛(防止别人模仿)大概就是用视觉块编码(visual patch)的方式,把不同格式的视频统一编码成了用
transformer
架构能够训练的embeding,然后引入类似diffusion
sora
openai
视频生成
AGI
通往AGI之路,提示词入门
OpenAI's GPT (generative pre-trained
transformer
) models have been trained to understand natural
AGI
提示词
最顶尖的大语言模型人才,只关心这10个挑战
与这些架构相比,问世于2017年的
Transformer
异常稳定,虽然目前尚不清楚这个架构还会流行多久。
大语言模型
大规模训练系列之技术挑战
NLP 领域的大规模训练发展快速,从 BERT 到 GPT-3,再到 Switch
Transformer
,无论是模型大小还是计算资源占用都在疾速增长。
开源模型
开源
开源大语言模型完整列表
Transformer
-XL
Transformer
-XL 是以中文为核心的预训练语言生成模型,参数规模为 29 亿,目前可支持包括文章生成、智能作诗、评论 / 摘要生成等主流 NLG 任务。
开源模型
大语言模型
开源
国内外开源大语言模型一览表
基于
Transformer
结构,在大约1.2万亿 tokens 上训练的70亿参数模型,支持中英双语,上下文窗口长度为4096。
大模型
大模型
开源大模型王座易主!谷歌Gemma杀入场,笔记本可跑,可商用
模型架构 Gemma 模型架构基于
Transformer
解码器,表 1 总结了该架构的核心参数。
开源模型
Gemma
大模型
和大模型相关的一些术语(持续更新中)
GPT的全称,是Generative Pre-Trained
Transformer
(生成式预训练转换器)是一种基于互联网的、可用数据来训练的、文本生成的深度学习模型。
大模型
人工智能
大模型
大模型的研究新方向:混合专家模型(MoE)
为了实现大模型的高效训练和推理,有的是从模型底层下手,比如直接改变底层模型架构,将原来的
Transformer
架构改成近期新出的基于状态空间模型(SSM)的mamba架构;有的是在预训练微调方法上下手,
MoE
大模型
Sora
探索Sora的魔法世界:功能展示、原理解析、未来市场影响大猜想!
Sora采用Diffusion
Transformer
(DiT)架构进行训练。
视频生成
sora
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100