首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· AI高手都在用的10个提示词prompt网站,建议收藏!
· 大模型业务应用中数据准备的要求、难点及解决思路
· 一文搞定 ComfyUI SDXL1.0 完整流程
· Prompt小技巧(18):万能Prompt
· 比 Roop 和 Reactor 更像!IP Adapter 新模型为任何人做写真
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· 大模型狂飙两年后,“六小龙”开始做减法
· Examful.ai
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
· AI音乐热潮下,“神曲工作室”率先失业
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
ChatGLM
从0到1基于ChatGLM-6B使用LoRA进行参数高效微调
nbsp; lora_alpha=32, lora_dropout=
0.1
大模型
大模型
大模型的研究新方向:混合专家模型(MoE)
例如,如果模型有三个专家,输出的概率可能为0.5和0.4、
0.1
,这意味着第一个专家对处理此数据的贡献为50%,第二个专家为40%,第二个专家为10%,这个时候的K就可以选择为2,我们认为前两个专家模型的建议会更好
MoE
大模型
开源
开源大语言模型完整列表
NSQL —— 开源 SQL 协同生成基础模型 NSQL,这是一个专为 SQL 生成任务设计的全新开源大型基础模型 (FM) 系列,包括 NSQL
350M
、NSQL 2B 和 NSQL 6B。
开源模型
大语言模型
大模型
大模型训练为什么用A100不用4090
整机功耗大约 400W * 8 + 2 kW = 5 kW,按照
0.1
美元一度电算,每小时 0.5 美元。
大模型
通义千问
必看!阿里通义千问完整技术报告
为防止过拟合,采用了权重衰减,值为
0.1
,丢失率设置为
0.1
,梯度裁剪限制为1.0。
大型语言模型
报告
大模型
炸裂!百川开源第1个7B多模态大模型 Baichuan-Omni | 能够同时分析图像/视频/音频/文本
所有比较实验在相同的实验条件下进行,具体使用批量大小为8,IFT训练数据(数据比设置为Caption: Interleaved数据: Pure text为0.45: 0.45:
0.1
)。
Baichuan-Omni
多模态大模型
语义检索系统[全]:基于Milvus+ERNIE+SimCSE+In-batch Negatives样本策略的学术文献语义检索
0.1
为什么说语义搜索很重要?
开源模型
<
1
2
3
4
>
1
2
4
5
6
7
8
9
100