首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
· 神奇的 OuteTTS - 0.1 - 350M:用几秒钟音频克隆声音的黑科技!
· 理解 o3 及其技术分析
· 深度体验3天后,我把腾讯这款copilot锁进了程序坞
· 使用知识图谱提高RAG的能力,减少大模型幻觉
· AI写作:一步到位,如何用 AI 生成整篇文章?做自媒体必看!
· 掌握这10个AI 工具用1小时完成别人1周的工作
· Stable Diffusion 30种采样器全解!
· 基于 OpenAI Whisper 模型的实时语音转文字工具
· 弱智吧竟成最佳中文AI训练数据?!中科院等:8项测试第一,远超知乎豆瓣小红书
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
与原始的
Transformer
和 Rotary 嵌入相比,它可以带来更流畅的训练和更好的下游性能。
大模型
大模型
从零开始了解AI大模型 - 概念篇:一文带你走进大模型世界
简而言之,"大模型"是具有大量参数(通常指在10亿以上)和卓越性能的
Transformer
结构模型,而"LLM大型语言模型"则是指针对自然语言处理的大型模型,目前在LLM人类自然语言领域取得巨大突破,主要代表为
大模型
大模型
中国首个长时长、高一致性、高动态性视频大模型,Vidu 登场
生数ShengShu ,赞6018 点击查看「Vidu」发布短片 该模型采用团队原创的Diffusion与
Transformer
融合的架构U-ViT,支持一键生成长达16秒、分辨率高达
Vidu
大模型
视频
Prompt
如何看待大型语言模型的Prompt
自注意力是
Transformer
架构中最重要的单一组件。
prompt
大语言模型
大模型
“大模型+机器人”的现状和未来,重磅综述报告来了!
2、视觉
Transformer
模型:如ViT、Swin
Transformer
等,主要应用于计算机视觉任务。
论文
机器人
大模型
中文原生文生图大模型来了!腾讯混元推出,Sora 同架构
升级后的腾讯混元文生图大模型采用了全新的DiT架构(DiT,即Diffusion With
Transformer
),这也是Sora和 Stable Diffusion 3 的同款架构和关键技术,是一种基于
文生图
混元
腾讯
大模型
天塌了,Scaling Law 已撞收益递减墙?OpenAI 在内,所有大模型都正遭遇巨大瓶颈
研究人员重点研究的是
transformer
模型,一类在随机生成的序列数据之上训练而成,另一类则由遵循策略生成的数据训练而成。
Scaling
Law
AI大模型
大模型
最新大模型面经+感受,4家大厂offer!
介绍下对
transformer
的了解,网络结构相比于lstm有什么不同?
大模型
面试
Stable Diffusion
Meta发布业界最强文生图模型CM3Leon,实力碾压Stable Diffusion、Midjourney
本方法很简单,产生了一个强大的模型,还表明基于tokenizer的
transformer
可以像现有的基于生成扩散的模型一样有效地训练。
文生图
大模型
九问中国大模型掌门人,万字长文详解大模型进度趋势
问
Transformer
未来将如何演进?
大模型
详解
大模型
MaskGCT:登上GitHub趋势榜榜首的TTS开源大模型
本文介绍了一种名为Masked Generative Codec
Transformer
(MaskGCT)的全非自回归TTS模型,该模型消除了文本与语音监督之间的显式对齐需求,以及音素级持续时间预测。
MaskGCT
声音克隆
LLM
让AI记住你说的话、让AI给你生成几十万字的小说!StreamingLLM 让无限长token成为可能
,它可以让任何基于
Transformer
的语言模型(LLM)处理无限长度的文本,而不需要任何微调或额外的训练。
StreamingLLM
写作
大模型
视频大模型训练相关词条解释
Sora采用Diffusion
Transformer
(DiT)架构进行训练。
视频生成
sora
词条
大模型
重磅来袭!Llama中文社区开源预训练中文版Atom-7B大模型
| 训练过程 ⭐支持更长上下文的模型结构 基于当前最优秀的开源模型 Llama2,使用主流 Decoder-only 的标准
Transformer
网络结构,支持
大模型
免训练!单图秒级别生成AI写真,人像生成进入无需训练的单阶段时代
FACT 整个框架如下图所示: 为了更全面地提取人脸的细节信息,FACT 采用了在海量人脸数据上预训练的基于
Transformer
架构的人脸特征提取器
FaceChain
FACT
文生图
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100