首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 使用这个工具后,我将 RAG 的准确性和召回率都提高了两倍!
· 硬核解读Stable Diffusion(系列三)
· 大模型狂飙两年后,“六小龙”开始做减法
· ChatGPT写论文指令全集
· 微软研究团队:Sora核心技术及未来机会研究报告-中英对照版
· AI绘画:InstantID Win11本地安装记录!
· 这个数字人开源项目太牛了,非常全面的项目解决方案(含源码)
· 你要牢记的四个常用AI提示词框架:ICIO、CRISPE、BROKE、RASCEF,有助于获取更加稳定和高质量的内容
· 通俗解读大模型微调(Fine Tuning)
· RAG检索增强技术在知识库智能检索场景下的应用实践
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
ChatGLM
从0到1基于ChatGLM-6B使用LoRA进行参数高效微调
nbsp; lora_alpha=32, lora_dropout=
0.1
大模型
大模型
大模型的研究新方向:混合专家模型(MoE)
例如,如果模型有三个专家,输出的概率可能为0.5和0.4、
0.1
,这意味着第一个专家对处理此数据的贡献为50%,第二个专家为40%,第二个专家为10%,这个时候的K就可以选择为2,我们认为前两个专家模型的建议会更好
MoE
大模型
开源
开源大语言模型完整列表
NSQL —— 开源 SQL 协同生成基础模型 NSQL,这是一个专为 SQL 生成任务设计的全新开源大型基础模型 (FM) 系列,包括 NSQL
350M
、NSQL 2B 和 NSQL 6B。
开源模型
大语言模型
大模型
大模型训练为什么用A100不用4090
整机功耗大约 400W * 8 + 2 kW = 5 kW,按照
0.1
美元一度电算,每小时 0.5 美元。
大模型
通义千问
必看!阿里通义千问完整技术报告
为防止过拟合,采用了权重衰减,值为
0.1
,丢失率设置为
0.1
,梯度裁剪限制为1.0。
大型语言模型
报告
大模型
炸裂!百川开源第1个7B多模态大模型 Baichuan-Omni | 能够同时分析图像/视频/音频/文本
所有比较实验在相同的实验条件下进行,具体使用批量大小为8,IFT训练数据(数据比设置为Caption: Interleaved数据: Pure text为0.45: 0.45:
0.1
)。
Baichuan-Omni
多模态大模型
语义检索系统[全]:基于Milvus+ERNIE+SimCSE+In-batch Negatives样本策略的学术文献语义检索
0.1
为什么说语义搜索很重要?
开源模型
<
1
2
3
4
>
1
2
4
5
6
7
8
9
100