首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· Stable Diffusion|提示词高阶用法(二)双人同图
· 复旦开源中文医疗大模型,基于百川微调,模型和数据集都公开
· Suno音乐新手指南(手把手完整版教程)
· 必看!阿里通义千问完整技术报告
· clone-voice:一键克隆声音,开源AI技术让声音创作更便捷、更个性化
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· OmniVision - 968M:小巧精悍的视觉语言模型,释放多模态边缘计算强大潜能
· MCP服务介绍及应用场景报告-来自Manus
· 理解 o3 及其技术分析
· 腾讯悄悄开源混元版「Sora」,这就是开源领域的No.1。
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
回望做大模型一年后的感悟
但现在大家都在讨论“
scaling
law”还能不能持续下去,GPT5可能带来的能力提升是什么;chatgpt用户量增长几乎平了,productivity类的产品会不会有增长天花板,从推理成本来看chatgpt
大模型
感悟
大模型
LLM每周速递!大模型最前沿:多模态RAG、RAG加速、大模型Agent、模型微调/对齐
斯坦福 | 上下文
Scaling
Laws 论文:https://arxiv.org/pdf/2410.16531 本文研究了上下文学习(ICL)在不对模型进行微调训练的情况下提高语言模型执行复杂任务的能力
大模型
研究
大模型
中国大模型「顶流群聊」笔记
他说很快大家就会发现,做过大模型 Infra 的人比做大模型的人还要贵、更稀缺;而会做
Scaling
Law(扩展定律,模型能力随着训练计算量增加而提升)的人比会做大模型 Infra 的人更稀缺。
大语言模型
揭秘DeepSeek:一个更极致的中国技术理想主义故事
Scaling
Law也在被如此对待。
DeepSeek
大模型
【提前体验GPT-5】吴恩达AI智能体工作流详细解读
Ng also suggests the concept of
scaling
up from one to multiple intelligent agents with distinct functionalities
GPT-5
智能体
Sora
快手版Sora「可灵」开放测试:生成超120s视频,更懂物理,复杂运动也能精准建模
类Sora模型架构,
scaling
law得到验证 先从模型的设计说起,这当中主要应当考虑两方面的因素,一是足够强的拟合能力,二是足够多的参数容量。
可灵
快手
文生视频
AIGC
《构建个人知识图谱》:让 AIGC 帮你自动构建知识图谱
as K8s, is an open-source system for automating deployment,
scaling
提示词
文生图
AIGC
Sora
OpenAI视频模型Sora的推理生成成本多高?
、大显存 LLM 推理芯片,可以绕开芯片制程的瓶颈迅速商业化 测算 GPT-4 的训练算力需求 首先估算 GPT-4 的算力需求, 根据 OpenAI 的 Paper:
Scaling
Sora
推理
算力
大模型
大模型:泛化即智能,压缩即一切
如果你认同
Scaling
Law定律,你就应该相信通过大量不同的数据来追求长期的模型泛化能力比短期的通过巧妙的模型微调更重要,这个想法在机器学习先驱 Rich Sutton 《苦涩的教训》中也有所体现。
大模型
泛化
大模型
大模型文本生成——解码策略(Top-k & Top-p & Temperature)
· 它可以与其他解码策略结合使用,例如温度调节(Temperature
Scaling
)、重复惩罚(Repetition
大模型
Sora
Stablediffusion3论文下载-确定了Stablediffusion3与Sora的架构是一致的
这篇论文的标题是《
Scaling
Rectified Flow Transformers for High-Resolution Image Synthesis》,作者是来自Stability AI的多位研究人员
SD
论文
大模型
大模型时代-行业落地的再思考
而且,该阈值和预训练模型的大小,预训练时原始数据的比例等条件都息息相关,需要在实践中反复修正(这个时候就能看出
scaling
law的重要性了)。
大模型
理解 o3 及其技术分析
虽然我过去曾是LLM半结构化输出的鼓吹者,但我目前认为某种程度的细粒度Thought结构化是不容易实现的,考虑到OpenAI的开发时间,以及结构化并不能很好
scaling
到各个领域,这个方式也不像是符合
o3
技术分析
大模型
微调、训练大模型概念介绍及论文笔记:Tuning系列论文笔记
#65533;�����) q, k, v是输入数据,在微调过程中仅改变输入的序列长度并不会改变权重矩阵 推荐材料
Scaling
训练
微调
大模型
大模型狂飙两年后,“六小龙”开始做减法
不同于预训练强调规模优先的
Scaling
Law,o1通过在推理阶段注入强化学习和思维链,打开了大模型在推理端的“能力上限”,这意味着国内的大模型企业可以模仿OpenAI,找到继续scale
AI
大模型
<
1
2
3
>
1
2
4
5
6
7
8
9
100