首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 使用这个工具后,我将 RAG 的准确性和召回率都提高了两倍!
· 硬核解读Stable Diffusion(系列三)
· Pytorch安装(保姆级教学 真·满血·GPU版)CUDA更新?torch版本?一文全搞定!
· LangChain Agent 原理解析
· 无需翻墙,可合法使用的8款国内AI大模型产品
· AI Agent行业深度:框架拆解、应用方向、应用领域及相关公司深度梳理
· SD入门教程零:应用场景
· 教会AI画汉字(ComfyUI篇)
· 有道开源的国产语音库EmotiVoice爆火了!具有情绪控制功能的语音合成引擎!
· 100个最强Ai实用工具精讲 - 拒绝焦虑拥抱Ai
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
领域大模型LLM
训
练
Trick
答:如果仅仅使用领域数据集进行模型
训
练
,模型很容易出现灾难性遗忘现象,为了解决这个问题通常在领域
训
练
的过程中加入通用数据集。
垂直
训练
大模型
大模型
领域大模型-
训
练
Trick&落地思考
如果仅用领域数据进行模型
训
练
,模型很容易出现灾难性遗忘现象,通常在领域
训
练
过程中加入通用数据。
垂直
训练
大模型
如何使用 Megatron-LM
训
练
语言模型
在 PyTorch 中
训
练
大语言模型不仅仅是写一个
训
练
循环这么简单。
开源模型
免
训
练
!单图秒级别生成AI写真,人像生成进入无需
训
练
的单阶段时代
这一创新版本摒弃了传统的人物模型
训
练
过程,能够直接生成 zero-shot 目标人像,引领 AI 人像生成进入了无需
训
练
的单阶段时代。
FaceChain
FACT
文生图
ChatGLM
使用自己的数据
训
练
清华ChatGLM2-6B 模型
解开这里的注释: image-20230805174737559
训
练
P-Tuning v2 运行以下指令进行
训
练
: .
ChatGLM2-6B
大模型
大模型
训
练
工程那些事
预
训
练
、继续预
训
练
、对齐(SFT、RLHF) 这些流程和术语对大家来说应该并不陌生。
训练工程
大模型
大模型
大模型
训
练
为什么用A100不用4090
大模型
训
练
为什么不能用 4090 GPU
训
练
性能和成本对比 LambdaLabs 有个很好的 GPU 单机
训
练
性能和成本对比,在此摘录如下。
大模型
大模型
视频大模型
训
练
相关词条解释
Sora采用Diffusion Transformer (DiT)架构进行
训
练
。
视频生成
sora
词条
大规模
训
练
系列之技术挑战
0 前言 本次分享是大规模
训
练
技术系列的第一篇,主要包括两个部分: · 大规模
训
练
技术的意义 · 大规模
训
练
的技术挑战 1 大规模
训
练
技术的意义 1.1
训
练
的精度极限
开源模型
大模型
预
训
练
对话大模型深度解读
其实它只是一个数学模型,它强大的原因是:用到的计算量很大、数据量很大、
训
练
语言模型的方法比以前好。
Microsoft
来自Microsoft Build 2023:大语言模型是如何被
训
练
出来的
本场汇报共40多分钟,包含2个方面,一个是如何
训
练
出GPT这样的大语言模型,里面包含了大语言模型的
训
练
过程以及相关的技术,虽然是一种high-level的讲解,但是对于理解ChatGPT的
训
练
十分有用。
大模型
LLM
个人从零预
训
练
1B LLM心路历程
随着项目的推进,我其实已经分享过了如下4篇文章: 【从零
训
练
Steel-LLM】预
训
练
数据收集与处理 【从零
训
练
Steel-LLM】预
训
练
代码讲解、改进与测试 【从零
训
练
Steel-LLM
LLM
训练
工具
HAI-Chat:高效且轻量的一键式 RLHF
训
练
工具
幻方x深度求索在萤火智算集群上进行大量的 RLHF
训
练
实践,研发优化了一套轻量的 PPO
训
练
工具,名叫 HAI-Chat。
HAI-Chat
RLHF
一文读懂GPT-1:生成式预
训
练
如何提升语言理解
GPT-1首先利用大量未标注文本进行预
训
练
,然后针对特定任务进行有监督的微调。
GPT
大模型
重磅来袭!Llama中文社区开源预
训
练
中文版Atom-7B大模型
Llama中文社区联合AtomEcho(原子回声)重磅发布基于Llama2的中文预
训
练
大模型:原子大模型 Atom-7B | Atom-7B 介绍 目标泛智能体大模型 不同原子有不同的特性
大模型
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100