首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 使用这个工具后,我将 RAG 的准确性和召回率都提高了两倍!
· 硬核解读Stable Diffusion(系列三)
· 大模型狂飙两年后,“六小龙”开始做减法
· ChatGPT写论文指令全集
· 微软研究团队:Sora核心技术及未来机会研究报告-中英对照版
· AI绘画:InstantID Win11本地安装记录!
· 这个数字人开源项目太牛了,非常全面的项目解决方案(含源码)
· 你要牢记的四个常用AI提示词框架:ICIO、CRISPE、BROKE、RASCEF,有助于获取更加稳定和高质量的内容
· 通俗解读大模型微调(Fine Tuning)
· RAG检索增强技术在知识库智能检索场景下的应用实践
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
20%杨幂+80%霉霉=?这款“人脸拼接”的AI应用还能这么玩
ID嵌入:InstantID首先从提供的参考面部图像中提取身份嵌入(ID
embedding
)。
InstantID
文生图
大模型
深入探秘:百川7B大模型的训练代码解析,揭秘巨无霸语言模型背后的奥秘
多头的注意力并不会增加参数量,只是把hidden_size 拆开成了head_dim 和 num_head 结语: 本次梳理了百川-7B的模型代码,里面还有些细节,每一个小细节都比较复杂,比如位置
embedding
大模型
RAG
如何提高RAG 的效果
Embedding
匹配:当前中文场景下笔者用的比较多的是m3e的基座模型,而在垂类问答下,存在大量的专名,是非常有必要对向量模型进行微调的,而且收益很高,大概在6个点以上。
RAG
大模型
大模型
中国电信开源星辰AI大模型:央企中首个完成LLM研发和开源的选手诞生
在模型训练上,为了保证稳定性,团队又使用了
Embedding
LayerNorm算法,在嵌入层添加额外的RMSNorm层,并在每个Transformer子层前加入RMSNorm层。
开源大模型
电信
大模型
大模型外挂知识库优化技巧-如何更有效的利用召回的文档
文档片段长度最好别超过100,不然会影响
embedding
模型向量化效果,进而使得召回精度降低。
大模型
说真的,学会用SD做电商图,你才是真的入了门
detail, product photo,raw photo, coffee_shop background, day time,warm light, no human, 反向提示词,常规的反向
embedding
文生图
SD
电商
数字人
教你用StableDiffusion设计AI数字人
我们把相同画面感受的图片作为数据集,训练嵌入式模型
Embedding
(把数据向量化,可理解为prompt合集),帮助AI理解更好地理解美感风格。
文生图
大模型
微调、训练大模型概念介绍及论文笔记:Tuning系列论文笔记
因为大模型参数量大,精调起来效率低,毕竟prompt的出现就是要解决大模型少样本的适配 作者发现直接优化Prompt参数不太稳定,加了个更大的MLP,训练完只保存MLP变换后的参数就行了 实验证实只加到
embedding
训练
微调
微调
LLM微调经验&认知
可能把历史对话做一个摘要或
embedding
映射更合理一点?
LLM
大模型
开源
新测试基准发布,最强开源Llama 3尴尬了
为了确保这一点,团队采用BERTopic中主题建模管道,首先使用OpenAI的嵌入模型(text-
embedding
-3-small)转换每个提示,使用 UMAP 降低维度,并使用基于层次结构的模型聚类算法
Llama
3
大模型
开源
SDXL
分享使用SDXL 1.0模型的一些技巧和心得
当然,像
embedding
还是不能使用。
文生图
LLM
基于LLM+向量库的文档对话痛点及解决方案
检索部分只对关键信息做
embedding
,参与相似度计算,把召回结果映射的 原始文本 交给LLM。
开源模型
大模型
通俗解读大模型微调(Fine Tuning)
根据我们在《揭密Transformer:大模型背后的硬核技术》一文中介绍的大模型背后的Transformer模型,Prompt Tuning是发生在
Embedding
这个环节的。
大模型
微调
RAG
简单提升RAG的10种方法
RAG 的标准方法涉及
embedding
和相似性搜索。
RAG
大模型
人工智能
人工智能大语言模型微调技术:SFT 、LoRA 、Freeze 监督微调方法
在 prefix 部分,每一层的 transformer 的
embedding
输入都需要被微调,而 P-tuning v1 只在第一层进行微调。
大模型
微调
<
1
2
3
4
5
6
7
8
9
10
>
1
2
4
5
6
7
8
9
100