首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 我们需要的不是智能体,而是工作流(5000字保姆式教学)
· 炸裂!百川开源第1个7B多模态大模型 Baichuan-Omni | 能够同时分析图像/视频/音频/文本
· 一文汇总市面上所有prompts提示词框架!
· GPU 性能(数据表)快速参考
· 大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
· 大语言模型应用中的文本分块策略
· AutoGPT与LLM Agent解析
· Stable Diffusion 必装插件查缺补漏,你还有哪个没装?(上)
· Comfyui工作流管理插件,再也不用保存本地了!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
OpenAI
被低估的面壁:打造出不输 OpenAI 的
Scaling
Law 曲线
在
Scaling
Prediction 出来后,面壁团队就认为这项技术“非同寻常”,因为如果
Scaling
Prediction 能够在一个大模型还未训练出来时、就能预测它的性能大约在什么水平,
Grok-1
开源模型
大模型
天塌了,
Scaling
Law 已撞收益递减墙?OpenAI 在内,所有大模型都正遭遇巨大瓶颈
“传统
scaling
laws 下的 LLM 进展可能会放缓”,有研究人员和企业家担心,生成式 AI 已经遇到了障碍,即使如 OpenAI 般急于扩大该技术使用规模的公司,也发现这在实践中很棘手。
Scaling
Law
AI大模型
OCR
中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
从 ChatGPT 到 Sora,生成式 AI 技术遵从《苦涩的教训》、
Scaling
Law 和 Emerging properties 的预言一路走来,让我们已经看到了
MiniCPM
大模型
大模型
大模型训练工程那些事
其中最有实践指导价值的是
Scaling
Laws,然后是基于大模型基座能力的下游任务和流程,以及大规模分布式训练能力。
训练工程
大模型
大模型
大模型:泛化即智能,压缩即一切!
如果你认同
Scaling
Law定律,你就应该相信通过大量不同的数据来追求长期的模型泛化能力比短期的通过巧妙的模型微调更重要,这个想法在机器学习先驱 Rich Sutton 《苦涩的教训》中也有所体现。
泛化
大模型
OpenAI
马斯克怒告OpenAI案解密:Ilya看到了什么?125万亿参数Q*细节曝光,53页PDF全网疯转
OpenAI新策略:Chinchilla缩放定律 100万亿参数模型实际上性能不是最优的,不过OpenAI正在使用一种新的缩放范式来弥补这一差距——基于一种叫做Chinchilla
scaling
OpenAI
大模型
Sora
OpenAI Sora视频生成模型技术报告中英全文+总结+影响分析
Our results suggest that
scaling
video generation models is a promising path towards building general
sora
openai
视频生成
开源
开源新标杆,千问Qwen2系列模型发布,全面超越LLama3
ollama部署 ollama run qwen2 One More Thing Qwen团队还在训练更大的模型,继续探索模型及数据的
Scaling
qwen
千问
开源
大模型
中文对话大模型BELLE全面开源!(附:数据+模型+轻量化)
详见论文:Exploring the Impact of Instruction Data
Scaling
on Large Language Models: An Empirical Study on
belle
训练
大模型
开源
十大开源语音识别项目
· 论文地址:https://research.facebook.com/publications/
scaling
-speech-technology-to-1000-languages/
语音识别
开源项目
大模型
通俗解读大模型微调(Fine Tuning)
感兴趣的朋友,可以阅读这篇论文:
Scaling
Down to Scale Up: A Guide to Parameter-Efficient Fine-Tuning[5]。
大模型
微调
混合专家模型 (MoE) 详解
Outrageously Large Neural Networks: The Sparsely-Gated Mixture-of-Experts Layer (2017) · GShard:
Scaling
MoE大模型
赚钱
你还在为钱发愁?2023年十大赚钱GPT Prompts高级指南!(国际版)
Include community sharing sessions in the coaching framework to leave open the
scaling
potential of
prompt
大模型
回望做大模型一年后的感悟
但现在大家都在讨论“
scaling
law”还能不能持续下去,GPT5可能带来的能力提升是什么;chatgpt用户量增长几乎平了,productivity类的产品会不会有增长天花板,从推理成本来看chatgpt
大模型
感悟
大模型
LLM每周速递!大模型最前沿:多模态RAG、RAG加速、大模型Agent、模型微调/对齐
斯坦福 | 上下文
Scaling
Laws 论文:https://arxiv.org/pdf/2410.16531 本文研究了上下文学习(ICL)在不对模型进行微调训练的情况下提高语言模型执行复杂任务的能力
大模型
研究
<
1
2
3
>
1
2
4
5
6
7
8
9
100