首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 使用这个工具后,我将 RAG 的准确性和召回率都提高了两倍!
· 硬核解读Stable Diffusion(系列三)
· AI高手都在用的10个提示词prompt网站,建议收藏!
· 一文汇总市面上所有prompts提示词框架!
· Ollama的本地化又一图形工具ChatOllama,让你轻松玩转ollama,ChatGPT
· 有道开源的国产语音库EmotiVoice爆火了!具有情绪控制功能的语音合成引擎!
· 盘点字节跳动最新的AI应用
· 产品经理必会的3大流程:业务流程、功能流程、页面流程(附案例)
· 一条价值2W的Prompt,帮你生成提示词的超级提示词
· Stable Diffusion快速生图,LCM-Lora、sd_xl turbo寄养和亲生谁好?!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
OpenAI
被低估的面壁:打造出不输 OpenAI 的 Scaling
Law
曲线
所以,从 2023 年开始,面壁团队开始探索高效的 Scaling
Law
、用小十倍参数模型预测大十倍参数模型的性能。
Grok-1
开源模型
OpenAI
Ilya认错,Scaling
Law
崩了?自曝SSI秘密技术路线取代OpenAI
他们强调,昨天的文章只是在说改进大模型必须找到新方法,并不是说Scaling
Law
已经终结。
Scaling
Law
AI大模型
大模型
天塌了,Scaling
Law
已撞收益递减墙?OpenAI 在内,所有大模型都正遭遇巨大瓶颈
还有一位网友表示,“现在需要人形机器人来改进 scaling
law
。
Scaling
Law
AI大模型
ChatGPT
为什么国产大模型都说超越ChatGPT而体验却很拉?警惕 Goodhart
law
陷阱
这背后,其实隐藏了一个经济学家查尔斯·古德哈特(Charles Goodhart)所提出的 Goodhart's
Law
陷阱。
ChatGPT
国产大模型
活久见,世界上第一个被人类骗走钱的AI,刚刚出现了!
靠Scaling
Law
,我们会拥有AGI吗?
Freysa
智能体
OCR
中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
从 ChatGPT 到 Sora,生成式 AI 技术遵从《苦涩的教训》、Scaling
Law
和 Emerging properties 的预言一路走来,让我们已经看到了
MiniCPM
大模型
大模型
大模型:泛化即智能,压缩即一切!
如果你认同Scaling
Law
定律,你就应该相信通过大量不同的数据来追求长期的模型泛化能力比短期的通过巧妙的模型微调更重要,这个想法在机器学习先驱 Rich Sutton 《苦涩的教训》中也有所体现。
泛化
大模型
大模型
使用大模型自动回复小红书/抖音/快手评论:通过RAG 优化LLMs实现
nbsp; normal distributions behave like Gaussian for low sigma and like Power
Law
RAG
大模型
自动回复
大模型
垂直领域大模型的一些思考及开源模型汇总
LAW
-GPT Github: https://github.com/LiuHC0428/
LAW
-GPT 简介:中文法律大模型(獬豸) 数据:现有的法律问答数据集和基于法条和真实案例指导的
垂直领域
大模型
开源模型
汇总
开源
开源新标杆,千问Qwen2系列模型发布,全面超越LLama3
ollama部署 ollama run qwen2 One More Thing Qwen团队还在训练更大的模型,继续探索模型及数据的Scaling
Law
qwen
千问
开源
大模型
国内法律类大模型介绍
nbsp; * 学校:上海交通大学 * Code: https://github.com/LiuHC0428/
LAW
-GPT
法律
大模型
揭秘DeepSeek:一个更极致的中国技术理想主义故事
Scaling
Law
也在被如此对待。
DeepSeek
大模型
大模型
大模型时代-行业落地的再思考
而且,该阈值和预训练模型的大小,预训练时原始数据的比例等条件都息息相关,需要在实践中反复修正(这个时候就能看出scaling
law
的重要性了)。
大模型
大模型
回望做大模型一年后的感悟
但现在大家都在讨论“scaling
law
”还能不能持续下去,GPT5可能带来的能力提升是什么;chatgpt用户量增长几乎平了,productivity类的产品会不会有增长天花板,从推理成本来看chatgpt
大模型
感悟
大模型
大模型:泛化即智能,压缩即一切
如果你认同Scaling
Law
定律,你就应该相信通过大量不同的数据来追求长期的模型泛化能力比短期的通过巧妙的模型微调更重要,这个想法在机器学习先驱 Rich Sutton 《苦涩的教训》中也有所体现。
大模型
泛化
<
1
2
>
1
2
4
5
6
7
8
9
100