首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 使用这个工具后,我将 RAG 的准确性和召回率都提高了两倍!
· 硬核解读Stable Diffusion(系列三)
· 大模型狂飙两年后,“六小龙”开始做减法
· ChatGPT写论文指令全集
· 微软研究团队:Sora核心技术及未来机会研究报告-中英对照版
· AI绘画:InstantID Win11本地安装记录!
· 这个数字人开源项目太牛了,非常全面的项目解决方案(含源码)
· 你要牢记的四个常用AI提示词框架:ICIO、CRISPE、BROKE、RASCEF,有助于获取更加稳定和高质量的内容
· 通俗解读大模型微调(Fine Tuning)
· RAG检索增强技术在知识库智能检索场景下的应用实践
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
OpenAI
被低估的面壁:打造出不输 OpenAI 的
Scaling
Law 曲线
在
Scaling
Prediction 出来后,面壁团队就认为这项技术“非同寻常”,因为如果
Scaling
Prediction 能够在一个大模型还未训练出来时、就能预测它的性能大约在什么水平,
Grok-1
开源模型
OpenAI
Ilya认错,
Scaling
Law崩了?自曝SSI秘密技术路线取代OpenAI
Ilya终于承认,自己关于
Scaling
的说法错了!
Scaling
Law
AI大模型
大模型
天塌了,
Scaling
Law 已撞收益递减墙?OpenAI 在内,所有大模型都正遭遇巨大瓶颈
“传统
scaling
laws 下的 LLM 进展可能会放缓”,有研究人员和企业家担心,生成式 AI 已经遇到了障碍,即使如 OpenAI 般急于扩大该技术使用规模的公司,也发现这在实践中很棘手。
Scaling
Law
AI大模型
活久见,世界上第一个被人类骗走钱的AI,刚刚出现了!
靠
Scaling
Law,我们会拥有AGI吗?
Freysa
智能体
OCR
中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
从 ChatGPT 到 Sora,生成式 AI 技术遵从《苦涩的教训》、
Scaling
Law 和 Emerging properties 的预言一路走来,让我们已经看到了
MiniCPM
大模型
大模型
大模型训练工程那些事
其中最有实践指导价值的是
Scaling
Laws,然后是基于大模型基座能力的下游任务和流程,以及大规模分布式训练能力。
训练工程
大模型
大模型
大模型:泛化即智能,压缩即一切!
如果你认同
Scaling
Law定律,你就应该相信通过大量不同的数据来追求长期的模型泛化能力比短期的通过巧妙的模型微调更重要,这个想法在机器学习先驱 Rich Sutton 《苦涩的教训》中也有所体现。
泛化
大模型
OpenAI
马斯克怒告OpenAI案解密:Ilya看到了什么?125万亿参数Q*细节曝光,53页PDF全网疯转
OpenAI新策略:Chinchilla缩放定律 100万亿参数模型实际上性能不是最优的,不过OpenAI正在使用一种新的缩放范式来弥补这一差距——基于一种叫做Chinchilla
scaling
OpenAI
大模型
Sora
OpenAI Sora视频生成模型技术报告中英全文+总结+影响分析
Our results suggest that
scaling
video generation models is a promising path towards building general
sora
openai
视频生成
开源
十大开源语音识别项目
· 论文地址:https://research.facebook.com/publications/
scaling
-speech-technology-to-1000-languages/
语音识别
开源项目
开源
开源新标杆,千问Qwen2系列模型发布,全面超越LLama3
ollama部署 ollama run qwen2 One More Thing Qwen团队还在训练更大的模型,继续探索模型及数据的
Scaling
qwen
千问
开源
大模型
中文对话大模型BELLE全面开源!(附:数据+模型+轻量化)
详见论文:Exploring the Impact of Instruction Data
Scaling
on Large Language Models: An Empirical Study on
belle
训练
大模型
大模型
通俗解读大模型微调(Fine Tuning)
感兴趣的朋友,可以阅读这篇论文:
Scaling
Down to Scale Up: A Guide to Parameter-Efficient Fine-Tuning[5]。
大模型
微调
混合专家模型 (MoE) 详解
Outrageously Large Neural Networks: The Sparsely-Gated Mixture-of-Experts Layer (2017) · GShard:
Scaling
MoE大模型
赚钱
你还在为钱发愁?2023年十大赚钱GPT Prompts高级指南!(国际版)
Include community sharing sessions in the coaching framework to leave open the
scaling
potential of
prompt
<
1
2
3
>
1
2
4
5
6
7
8
9
100