首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 最强国产开源多模态大模型MiniCPM-V:可识别图片、视频,还可在端侧部署
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
· 【Stable Diffusion操作升级】Stable Diffusion 常用模型下载与说明
· 包阅AI-免费AI阅读翻译神器!
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· 大模型评测新思路:弱智吧精华问题大全
· 精通结构化提示词:如何精确操控指令的作用域与优先级
· 小白设计师福音:Stable Diffusion 16款插件测评,好用不?推荐吗?
· LangChain手册(Python版)11模块:提示模板
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大规模
训
练
系列之技术挑战
0 前言 本次分享是大规模
训
练
技术系列的第一篇,主要包括两个部分: · 大规模
训
练
技术的意义 · 大规模
训
练
的技术挑战 1 大规模
训
练
技术的意义 1.1
训
练
的精度极限
开源模型
Microsoft
来自Microsoft Build 2023:大语言模型是如何被
训
练
出来的
本场汇报共40多分钟,包含2个方面,一个是如何
训
练
出GPT这样的大语言模型,里面包含了大语言模型的
训
练
过
程
以及相关的技术,虽然是一种high-level的讲解,但是对于理解ChatGPT的
训
练
十分有用。
大模型
一文读懂GPT-1:生成式预
训
练
如何提升语言理解
首期,我们将共同探索ChatGPT的起源:GPT-1,跟随论文深入理解其技术细节,见证人
工
智能新篇章的启幕。
GPT
大模型
OpenAI开源大模型调测
工
具Transformer Debugger:可以在
训
练
大模型之前理解模型的运行情况并干预
Viewer) · Transformer Debugger开源地址和其它资源 为什么大语言模型难以调测和解释 大语言模型需要大量的计算资源来
训
练
大模型
调试工具
大模型
重磅来袭!Llama中文社区开源预
训
练
中文版Atom-7B大模型
Llama中文社区联合AtomEcho(原子回声)重磅发布基于Llama2的中文预
训
练
大模型:原子大模型 Atom-7B | Atom-7B 介绍 目标泛智能体大模型 不同原子有不同的特性
大模型
大模型
图解大模型
训
练
之:张量模型并行(TP),Megatron-LM
今天我们将要介绍最重要,也是目前基于Transformer做大模型预
训
练
最基本的并行范式:来自NVIDIA的张量模型并行(TP)。
开源模型
大模型
微调、
训
练
大模型概念介绍及论文笔记:Tuning系列论文笔记
Tuning整体介绍 微调(Fine-tunning) 语言模型的参数需要一起参与梯度更新 轻量微调(lightweight fine-tunning) 冻结了大部分预
训
练
参数,仅添加任务层,语言模型层参数不变
训练
微调
教你打造属于自己的AI孙燕姿,AI歌手模型使用及
训
练
保姆级课
程
#1/2 使用模型
简单解释一下,这个项目分为两个部分,模型的使用和模型的
训
练
,模型使用的话对电脑的要求不是很高基本上差不多点的N卡都可以,模型的
训
练
其实对显卡要求还挺高的小于6G会有各种各样的问题,当然也能炼,不过太麻烦了不建议
生成式AI
Transformer
Transformer速查宝典:模型、架构、
训
练
方法的论文都在这里了
AlphaCode 是在 715GB(967B token)代码基础上
训
练
出来的模型,可以用于解决编
程
竞赛问题。
Transformer
微调
Prompt、RAG、微调还是重新
训
练
?如何选择正确的生成式AI的使用方法
从头开始
训
练
肯定具有最高的实现复杂性,因为它需要大量的数据管理和处理,并且
训
练
一个相当大的模型,这需要深入的数据科学和ML专业知识。
生成式AI
科大讯飞
哈
工
大科大讯飞联合推出中文LLaMA-2 & Alpaca-2大语言模型
这些模型在原版Llama-2的基础上扩充并优化了中文词表,使用了大规模中文数据进行增量预
训
练
,进一步提升了中文基础语义和指令理解能力,相比一代相关模型获得了显著性能提升。
训练
Prompt
Prompt
工
程
入门
例子5:写文章 写一篇关于人
工
智能的优点的文章。
prompt
提示词
微调
一文讲明白什么是预
训
练
、微调和上下文学习
主要特点: 无监督学习:预
训
练
通常是一个无监督学习过
程
,模型在没有明确指导或标签的情况下从未标记的文本数据中学习。
大模型
训练
SDXL
SDXL模型lora
训
练
参数详细设置,显存占用22G,不用修脸原图直出
的脚本集成的,现在更新到最新版本,就可以
训
练
SDXL模型的lora了。
SDXL
训练
如何从零开始
训
练
专属 LoRA 模型?4600字总结送给你!
一、
训
练
数据集准备 这个过
程
主要做三件事:
训
练
素材处理 图像预处理 打标优化 1.
训练
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100