首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 我们需要的不是智能体,而是工作流(5000字保姆式教学)
· 炸裂!百川开源第1个7B多模态大模型 Baichuan-Omni | 能够同时分析图像/视频/音频/文本
· 一文汇总市面上所有prompts提示词框架!
· GPU 性能(数据表)快速参考
· 大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
· 大语言模型应用中的文本分块策略
· AutoGPT与LLM Agent解析
· Stable Diffusion 必装插件查缺补漏,你还有哪个没装?(上)
· Comfyui工作流管理插件,再也不用保存本地了!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
OpenAI
被低估的面壁:打造出不输 OpenAI 的 Scaling
Law
曲线
所以,从 2023 年开始,面壁团队开始探索高效的 Scaling
Law
、用小十倍参数模型预测大十倍参数模型的性能。
Grok-1
开源模型
ChatGPT
为什么国产大模型都说超越ChatGPT而体验却很拉?警惕 Goodhart
law
陷阱
这背后,其实隐藏了一个经济学家查尔斯·古德哈特(Charles Goodhart)所提出的 Goodhart's
Law
陷阱。
ChatGPT
国产大模型
大模型
天塌了,Scaling
Law
已撞收益递减墙?OpenAI 在内,所有大模型都正遭遇巨大瓶颈
还有一位网友表示,“现在需要人形机器人来改进 scaling
law
。
Scaling
Law
AI大模型
OCR
中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
从 ChatGPT 到 Sora,生成式 AI 技术遵从《苦涩的教训》、Scaling
Law
和 Emerging properties 的预言一路走来,让我们已经看到了
MiniCPM
大模型
大模型
大模型:泛化即智能,压缩即一切!
如果你认同Scaling
Law
定律,你就应该相信通过大量不同的数据来追求长期的模型泛化能力比短期的通过巧妙的模型微调更重要,这个想法在机器学习先驱 Rich Sutton 《苦涩的教训》中也有所体现。
泛化
大模型
大模型
使用大模型自动回复小红书/抖音/快手评论:通过RAG 优化LLMs实现
nbsp; normal distributions behave like Gaussian for low sigma and like Power
Law
RAG
大模型
自动回复
开源
开源新标杆,千问Qwen2系列模型发布,全面超越LLama3
ollama部署 ollama run qwen2 One More Thing Qwen团队还在训练更大的模型,继续探索模型及数据的Scaling
Law
qwen
千问
开源
大模型
垂直领域大模型的一些思考及开源模型汇总
LAW
-GPT Github: https://github.com/LiuHC0428/
LAW
-GPT 简介:中文法律大模型(獬豸) 数据:现有的法律问答数据集和基于法条和真实案例指导的
垂直领域
大模型
开源模型
汇总
大模型
国内法律类大模型介绍
nbsp; * 学校:上海交通大学 * Code: https://github.com/LiuHC0428/
LAW
-GPT
法律
大模型
大模型
大模型时代-行业落地的再思考
而且,该阈值和预训练模型的大小,预训练时原始数据的比例等条件都息息相关,需要在实践中反复修正(这个时候就能看出scaling
law
的重要性了)。
大模型
揭秘DeepSeek:一个更极致的中国技术理想主义故事
Scaling
Law
也在被如此对待。
DeepSeek
大模型
大模型
回望做大模型一年后的感悟
但现在大家都在讨论“scaling
law
”还能不能持续下去,GPT5可能带来的能力提升是什么;chatgpt用户量增长几乎平了,productivity类的产品会不会有增长天花板,从推理成本来看chatgpt
大模型
感悟
大模型
大模型:泛化即智能,压缩即一切
如果你认同Scaling
Law
定律,你就应该相信通过大量不同的数据来追求长期的模型泛化能力比短期的通过巧妙的模型微调更重要,这个想法在机器学习先驱 Rich Sutton 《苦涩的教训》中也有所体现。
大模型
泛化
Transformer
Transformer速查宝典:模型、架构、训练方法的论文都在这里了
Chinchilla 的论文中引入了新的、改进版的 scalling
law
。
Transformer
Sora
快手版Sora「可灵」开放测试:生成超120s视频,更懂物理,复杂运动也能精准建模
类Sora模型架构,scaling
law
得到验证 先从模型的设计说起,这当中主要应当考虑两方面的因素,一是足够强的拟合能力,二是足够多的参数容量。
可灵
快手
文生视频
<
1
2
>
1
2
4
5
6
7
8
9
100