首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 第一性原理以及第一性原理是怎么帮马斯克成为首富的
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 从第一性原理看大模型Agent技术
· ComfyUI官方使用手册【官网直译+关键补充】
· 芯片拼接技术:英伟达新核弹,站在苹果的肩膀上
· AI声音克隆 | 最全最简教程(权威版)
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· 生成式AI与大语言模型的区别
· 自己电脑上跑大语言模型(LLM)要多少内存?
· 深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
模型压缩:量化、剪枝和蒸馏
本文将介绍针对BERT(以
Transformer
Block 堆叠而成的深度模型)的压缩方法。
BERT
语言模型
工具
FFmpeg之父新作——音频压缩工具 TSAC
其原理和我们之前介绍的突破压缩极限的AI语音编解码器类似,使用深度学习网络进行压缩,TSAC这里引入
Transformer
结构来提升性能。
TSAC
音频工具
一文读懂GPT-1:生成式预训练如何提升语言理解
它采用了
Transformer
作为模型架构,这种架构提供了更加结构化的记忆,以便处理文本中的长期依赖关系,从而实现了卓越的迁移性能。
GPT
大模型
从零开始了解AI大模型 - 技术篇:万字深度好文人话说大模型技术
1.1 关键技术原理一:
Transformer
模型架构
Transformer
模型起源:ChatGPT的底层框架脱胎于2017年Google发布的
Transformer
模型,此模型引入了注意力机制,彻底颠覆了传统深度学习中的循环和卷积结构
大模型
Sora
解读OpenAI Sora文生视频技术原理
; OpenAI 讲Sora 是一个Diffusion
Transformer
,这来自伯克利学者的工作Diffusion
Transformer
(DiT):"采用
Transformer
的可扩展扩散模型
sora
ChatGPT
什么是ChatGPT?
GPT:Generative Pre-Training
Transformer
Generative 生成式 虽然我们已经习惯了话唠的机器人絮絮叨叨的说个不停,但这只是众多的人工智能模型的一种方式
ChatGPT
OpenAI
大模型
大模型
苹果一次性开源了8个大模型! 包含模型权重、训练日志和设置,OpenELM全面开源
为了实现
Transformer
层中参数的非均匀分配,研究人员调整了每个
Transformer
层中注意力头的数量和FFN维度调整系数。
OpenELM
大模型
Sora
OpenAI视频模型Sora的推理生成成本多高?
的训练算力需求 首先估算 GPT-4 的算力需求, 根据 OpenAI 的 Paper: Scaling Laws for Neural Language Models , 训练
Transformer
Sora
推理
算力
ChatGLM
【万字长文】LLaMA, ChatGLM, BLOOM的参数高效微调实践
模型结构上,与GPT相同,LLaMA采用了causal decoder-only的
transformer
模型结构。
大模型
微调
训练
Sora
Sora相关论文合集---全32套大放送
-
Transformer
架构在自然语言处理和视觉识别等领域展现出优越的扩展性和性能。
Sora
论文
大模型
语言大模型100K上下文窗口的秘诀
处理大型上下文长度时,原始
Transformer
架构的主要局限性是什么?
大模型
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
与原始的
Transformer
和 Rotary 嵌入相比,它可以带来更流畅的训练和更好的下游性能。
大模型
大模型
从零开始了解AI大模型 - 概念篇:一文带你走进大模型世界
简而言之,"大模型"是具有大量参数(通常指在10亿以上)和卓越性能的
Transformer
结构模型,而"LLM大型语言模型"则是指针对自然语言处理的大型模型,目前在LLM人类自然语言领域取得巨大突破,主要代表为
大模型
Stable Diffusion
Meta发布业界最强文生图模型CM3Leon,实力碾压Stable Diffusion、Midjourney
本方法很简单,产生了一个强大的模型,还表明基于tokenizer的
transformer
可以像现有的基于生成扩散的模型一样有效地训练。
文生图
大模型
中国首个长时长、高一致性、高动态性视频大模型,Vidu 登场
生数ShengShu ,赞6018 点击查看「Vidu」发布短片 该模型采用团队原创的Diffusion与
Transformer
融合的架构U-ViT,支持一键生成长达16秒、分辨率高达
Vidu
大模型
视频
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100