首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 硬核解读Stable Diffusion(系列一)
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· 新华妙笔
· MidjourneyV6高级提示词技巧(人物篇)
· 吴恩达Prompt教程之总结图解
· 开箱即用的图像增强、视频增强AI工具,Upscapl、Topaz Video AI
· 自动化神器Autolt:不再重复工作
· StableDiffusion常用热门模型下载站点推荐(国内版)
· 点评:六大向量数据库
· 第3期 SDXL和SD的10大区别!你知道几个?
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大
模
型
外挂知识库优化-
大
模
型
辅助向量召回
如果您有
微
调
向量化
模
型
的能力,这部分就可以跳过了。
大模型
从零开始学习
大
模
型
-第一章-
大
模
型
简介
即使在面对新任务时,通过
微
调
或迁移学习,
大
模
型
也能够快速适应并取得不错的性能。
大模型
从零开始
大
模
型
实践总结
参数高效
微
调
(PEFT)技术 在面对特定的下游任务时,如果进行Full FineTuning(即对预训练
模
型
中的所有参数都进行
微
调
),太过低效;而如果采用固定预训练
模
型
的某些层,只
微
调
接近下游任务的那几层参数
大模型
训练
AI里的
大
模
型
,你了解么
AI
大
模
型
是“人工智能预训练
大
模
型
”的简称,是指具有
大
量参数和复杂结构的机器学习
模
型
。
人工智能
ChatGLM
从0到1基于ChatGLM-6B使用LoRA进行参数高效
微
调
之前尝试了基于LLaMA使用LoRA进行参数高效
微
调
,有被惊艳到。
大模型
LLM
领域
大
模
型
LLM训练Trick
问题四:用于
大
模
型
微
调
的数据集如何构建?
垂直
训练
大模型
投资人逃离
大
模
型
智谱清言是北京智谱华章科技有限公司推出的一款生成式 AI 助手,基于智谱 AI 自主研发的中英双语对话
模
型
ChatGLM2,经过万亿字符的文本与代码预训练,并采用有监督
微
调
技术。
大模型
手把手!做Llama3的MoE专家混合
模
型
!底层原理怎样的?做自己的MoE
模
型
?需要多少算力?
llama3的
微
调
!
MoE
专家混合模型
编程
国产编程
大
模
型
CodeGeex
CodeGeeX: 多语言代码生成
模
型
架构:CodeGeeX是一个基于transformers的
大
规
模
预训练编程语言
模
型
。
编程
开源
阿里云开源通义千问多
模
态
大
模
型
Qwen-VL,持续推动中国
大
模
型
生态建设
8月25日消息,阿里云推出
大
规
模
视觉语言
模
型
Qwen-VL,一步到位、直接开源。
大模型
LLM
llm-action:让天下没有难学的
大
模
型
48G显存,真香 配套代码 LLM
微
调
技术原理 对于普通
大
众来说,进行
大
模
型
的预训练或者全量
微
调
遥不可及。
大模型
LLM
微
软Phi-3、Mixtral 8x22B等小
模
型
过拟合,三分之二存在数据污染
当前最火的
大
模
型
,竟然三分之二都存在过拟合问题?
过拟合
小模型
开源
开源的
大
模
型
数据集
大
模
型
的算法
模
型
开源越来越多,
大
模
型
工程化也越来越稳定。
开源模型
数据集
大
模
型
的研究新方向:混合专家
模
型
(MoE)
为了实现
大
模
型
的高效训练和推理,有的是从
模
型
底层下手,比如直接改变底层
模
型
架构,将原来的Transformer架构改成近期新出的基于状态空间
模
型
(SSM)的mamba架构;有的是在预训练
微
调
方法上下手,
MoE
大模型
Prompt
如何看待
大
型
语言
模
型
的Prompt
从表面上看,现代的
大
型
语言
模
型
与原始的word2vec
模
型
似乎完全不同。
prompt
大语言模型
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100