首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· AI创作 |如何通过GPT进行漫画视频的故事改写
· 第3期 SDXL和SD的10大区别!你知道几个?
· 姚班天才开发《完蛋!我被大模型包围了》游戏爆火,一日用户过万挤爆服务器
· 你的下一个浏览器,可以是豆包电脑版!
· DeepMusic发布“和弦派”2.0:重塑AI音乐创作范式,赋予创作者全方位掌控
· Prompt屠龙术-少样本示例
· 揭秘DeepSeek:一个更极致的中国技术理想主义故事
· 豆包MarsCode——免费AI编程助手
· 100个最强Ai实用工具精讲 - 拒绝焦虑拥抱Ai
· 实测:本地跑llama3:70B需要什么配置
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
OpenAI
被低估的面壁:打造出不输 OpenAI 的 Scaling
Law
曲线
所以,从 2023 年开始,面壁团队开始探索高效的 Scaling
Law
、用小十倍参数模型预测大十倍参数模型的性能。
Grok-1
开源模型
OpenAI
Ilya认错,Scaling
Law
崩了?自曝SSI秘密技术路线取代OpenAI
他们强调,昨天的文章只是在说改进大模型必须找到新方法,并不是说Scaling
Law
已经终结。
Scaling
Law
AI大模型
大模型
天塌了,Scaling
Law
已撞收益递减墙?OpenAI 在内,所有大模型都正遭遇巨大瓶颈
还有一位网友表示,“现在需要人形机器人来改进 scaling
law
。
Scaling
Law
AI大模型
ChatGPT
为什么国产大模型都说超越ChatGPT而体验却很拉?警惕 Goodhart
law
陷阱
这背后,其实隐藏了一个经济学家查尔斯·古德哈特(Charles Goodhart)所提出的 Goodhart's
Law
陷阱。
ChatGPT
国产大模型
活久见,世界上第一个被人类骗走钱的AI,刚刚出现了!
靠Scaling
Law
,我们会拥有AGI吗?
Freysa
智能体
OCR
中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
从 ChatGPT 到 Sora,生成式 AI 技术遵从《苦涩的教训》、Scaling
Law
和 Emerging properties 的预言一路走来,让我们已经看到了
MiniCPM
大模型
大模型
大模型:泛化即智能,压缩即一切!
如果你认同Scaling
Law
定律,你就应该相信通过大量不同的数据来追求长期的模型泛化能力比短期的通过巧妙的模型微调更重要,这个想法在机器学习先驱 Rich Sutton 《苦涩的教训》中也有所体现。
泛化
大模型
大模型
使用大模型自动回复小红书/抖音/快手评论:通过RAG 优化LLMs实现
nbsp; normal distributions behave like Gaussian for low sigma and like Power
Law
RAG
大模型
自动回复
大模型
垂直领域大模型的一些思考及开源模型汇总
LAW
-GPT Github: https://github.com/LiuHC0428/
LAW
-GPT 简介:中文法律大模型(獬豸) 数据:现有的法律问答数据集和基于法条和真实案例指导的
垂直领域
大模型
开源模型
汇总
开源
开源新标杆,千问Qwen2系列模型发布,全面超越LLama3
ollama部署 ollama run qwen2 One More Thing Qwen团队还在训练更大的模型,继续探索模型及数据的Scaling
Law
qwen
千问
开源
大模型
国内法律类大模型介绍
nbsp; * 学校:上海交通大学 * Code: https://github.com/LiuHC0428/
LAW
-GPT
法律
大模型
揭秘DeepSeek:一个更极致的中国技术理想主义故事
Scaling
Law
也在被如此对待。
DeepSeek
大模型
大模型
大模型时代-行业落地的再思考
而且,该阈值和预训练模型的大小,预训练时原始数据的比例等条件都息息相关,需要在实践中反复修正(这个时候就能看出scaling
law
的重要性了)。
大模型
大模型
回望做大模型一年后的感悟
但现在大家都在讨论“scaling
law
”还能不能持续下去,GPT5可能带来的能力提升是什么;chatgpt用户量增长几乎平了,productivity类的产品会不会有增长天花板,从推理成本来看chatgpt
大模型
感悟
大模型
大模型:泛化即智能,压缩即一切
如果你认同Scaling
Law
定律,你就应该相信通过大量不同的数据来追求长期的模型泛化能力比短期的通过巧妙的模型微调更重要,这个想法在机器学习先驱 Rich Sutton 《苦涩的教训》中也有所体现。
大模型
泛化
<
1
2
>
1
2
4
5
6
7
8
9
100