首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
· 神奇的 OuteTTS - 0.1 - 350M:用几秒钟音频克隆声音的黑科技!
· 理解 o3 及其技术分析
· 深度体验3天后,我把腾讯这款copilot锁进了程序坞
· 使用知识图谱提高RAG的能力,减少大模型幻觉
· AI写作:一步到位,如何用 AI 生成整篇文章?做自媒体必看!
· 掌握这10个AI 工具用1小时完成别人1周的工作
· Stable Diffusion 30种采样器全解!
· 基于 OpenAI Whisper 模型的实时语音转文字工具
· 弱智吧竟成最佳中文AI训练数据?!中科院等:8项测试第一,远超知乎豆瓣小红书
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
截至2023年5月份业界支持中文大语言模型开源总结及商用协议分析
一、MetaAI开源的OPT - Open Pre-trained
Transformer
模型 二、Google开源的Flan-T5系列 三、BigScience开源的BLOOM
大模型
Sora
Sora懂不懂物理世界?
虽然
Transformer
可以学习临近时空令牌间的连接概率,但是整体的合理性需要更高层次的数学理论观点、或者更为隐蔽而深厚的自然科学和人文科学的背景,目前的
Transformer
无法真正悟出这些全局观点
文生视频
视频生成
sora
大模型
大模型套壳祛魅:质疑套壳,理解套壳
在
Transformer
诞生的十年前,有一部好莱坞大片《变形金刚》在全球上映,这部电影的英文名字就叫「Transformers」。
大模型
套壳
大模型
从零开始了解AI大模型 - 技术篇:万字深度好文人话说大模型技术
1.1 关键技术原理一:
Transformer
模型架构
Transformer
模型起源:ChatGPT的底层框架脱胎于2017年Google发布的
Transformer
模型,此模型引入了注意力机制,彻底颠覆了传统深度学习中的循环和卷积结构
大模型
Sora
解读OpenAI Sora文生视频技术原理
; OpenAI 讲Sora 是一个Diffusion
Transformer
,这来自伯克利学者的工作Diffusion
Transformer
(DiT):"采用
Transformer
的可扩展扩散模型
sora
一文读懂GPT-1:生成式预训练如何提升语言理解
它采用了
Transformer
作为模型架构,这种架构提供了更加结构化的记忆,以便处理文本中的长期依赖关系,从而实现了卓越的迁移性能。
GPT
ChatGPT
什么是ChatGPT?
GPT:Generative Pre-Training
Transformer
Generative 生成式 虽然我们已经习惯了话唠的机器人絮絮叨叨的说个不停,但这只是众多的人工智能模型的一种方式
ChatGPT
OpenAI
大模型
模型压缩:量化、剪枝和蒸馏
本文将介绍针对BERT(以
Transformer
Block 堆叠而成的深度模型)的压缩方法。
BERT
语言模型
工具
FFmpeg之父新作——音频压缩工具 TSAC
其原理和我们之前介绍的突破压缩极限的AI语音编解码器类似,使用深度学习网络进行压缩,TSAC这里引入
Transformer
结构来提升性能。
TSAC
音频工具
大模型
苹果一次性开源了8个大模型! 包含模型权重、训练日志和设置,OpenELM全面开源
为了实现
Transformer
层中参数的非均匀分配,研究人员调整了每个
Transformer
层中注意力头的数量和FFN维度调整系数。
OpenELM
大模型
ChatGLM
【万字长文】LLaMA, ChatGLM, BLOOM的参数高效微调实践
模型结构上,与GPT相同,LLaMA采用了causal decoder-only的
transformer
模型结构。
大模型
微调
训练
Sora
Sora相关论文合集---全32套大放送
-
Transformer
架构在自然语言处理和视觉识别等领域展现出优越的扩展性和性能。
Sora
论文
Sora
OpenAI视频模型Sora的推理生成成本多高?
的训练算力需求 首先估算 GPT-4 的算力需求, 根据 OpenAI 的 Paper: Scaling Laws for Neural Language Models , 训练
Transformer
Sora
推理
算力
大模型
语言大模型100K上下文窗口的秘诀
处理大型上下文长度时,原始
Transformer
架构的主要局限性是什么?
大模型
开源
F5-TTS:上海交大开源超逼真声音克隆TTS,告别ElevenLabs,以后就用它了!实测真的很牛
3、Diffusion
Transformer
(DiT)的应用: F5-TTS利用了Diffusion
Transformer
,这是一种结合了扩散模型的
Transformer
结构
F5-TTS
音频克隆
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100