首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· GLM-4-Voice 9B——实时多语言语音对话 AI——几分钟内即可在本地安装
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 国内法律类大模型介绍
· 请以“续航”为题目,写一篇议论文
· 大模型中的Top-k、Top-p、Temperature详细含义及解释
· AI高手都在用的10个提示词prompt网站,建议收藏!
· ComfyUI学习笔记2,一文看透Workflow
· 一文彻底搞懂多模态 - 多模态推理
· 国产视频制作之光-可灵:提示词大全整理
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
通义千问
必看!阿里通义千问完整技术报告
QWEN 还包括两种注意力机制:LogN-
Scaling
(Chiang&Cholak,2022年;Su,2023a年)和窗口注意力(Beltagy等人,2020年)。
大型语言模型
报告
ChatGLM
【万字长文】LLaMA, ChatGLM, BLOOM的参数高效微调实践
Deepnet:
Scaling
transformers to 1,000 layers[J]. arXiv preprint arXiv:2203.00555, 2022. 10.
大模型
微调
训练
大模型
GitHub狂飙3万star的LLM公开资料 - 大模型入门教程
Scaling
laws:描述了基于模型大小、数据集大小和用于训练的计算量预期的模型性能。
LLM
大模型
GitHub
Transformer
Transformer速查宝典:模型、架构、训练方法的论文都在这里了
· 2017 年关于 LSTM 的 MoE 论文 https://arxiv.org/abs/1701.06538 · 面向 MoE 的 Deepmind
Scaling
Laws
Transformer
大模型
大模型实践总结
高效微调技术目前存在的两个问题: 相比全参数微调,高效微调技术目前存在的两个问题: 推理速度会变慢 模型精度会变差 影响大模型性能的主要因素 OpenAI的论文
Scaling
大模型
训练
RAG
RAG检索增强技术在知识库智能检索场景下的应用实践
首先,在技术方面,RAG模型的
Scaling
Law规律需要进一步研究,以实现模型规模的有效控制和优化。
知识库
RAG检索增强
大模型
万字长文,AI大模型的应用实践总结
模型精度会变差 10 影响大模型性能的主要因素 OpenAI的论文
Scaling
Laws for Neural Language Models中列举了影响模型性能最大的三个因素:计算量
大模型
AIGC
朱啸虎讲了一个中国现实主义AIGC故事
一股是技术信仰派,他们大多技术出身,认为应该像OpenAI一样信仰AGI、信仰
scaling
law(规模定律),思维更偏硅谷。
朱啸虎
AGI
开源
国内外开源大语言模型一览表
100% RNN) language model, which is the only RNN (as of now) that can match transformers in quality and
scaling
大模型
<
1
2
3
>
1
2
4
5
6
7
8
9
100