首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 使用这个工具后,我将 RAG 的准确性和召回率都提高了两倍!
· 硬核解读Stable Diffusion(系列三)
· 大模型狂飙两年后,“六小龙”开始做减法
· ChatGPT写论文指令全集
· 微软研究团队:Sora核心技术及未来机会研究报告-中英对照版
· AI绘画:InstantID Win11本地安装记录!
· 这个数字人开源项目太牛了,非常全面的项目解决方案(含源码)
· 你要牢记的四个常用AI提示词框架:ICIO、CRISPE、BROKE、RASCEF,有助于获取更加稳定和高质量的内容
· 通俗解读大模型微调(Fine Tuning)
· RAG检索增强技术在知识库智能检索场景下的应用实践
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
链接大模型与外部知识,智源开源最强语义向量模型BGE
语义向量模型(
Embedding
Model)已经被广泛应用于搜索、推荐、数据挖掘等重要领域。
embedding
语义向量
一人搞定30万商品分类:AI落地实践故事!
基于真实需求,让AI落地,使用
embedding
模型做大数据量分类。
embedding
大数据
分类
工具
使用这个工具后,我将 RAG 的准确性和召回率都提高了两倍!
RAG(Retrieval Augmented Generation)是一种检索增强生成技术,它利用大型语言模型来处理用户查询,RAG 技术的主要组成包括数据提取—
embedding
—创建索引—检索—
RAG
大语言模型
开源
M3E 可能是最强大的开源中文嵌入模型
; 01 — 最近在研究和部署使用 LangChain + LLM(ChatGPT/ChatGLM) 构建企业专有知识库时,接触到两个
embedding
开源模型
Stable Diffusion
Stable Diffusion的模型分类以及使用
;
Embedding
可以简单理解为提词打包模型,它可以生成指定角色的特征、风格或者画风。
文生图
如何用大语言模型构建一个知识问答系统
Embedding
-based search。
知识库
大模型
企业如何更好的使用大模型?都有哪些框架和方案
在这个过程中需要调用大模型的
Embedding
接口,将语料进行向量化,然后存储到向量数据库。
人工智能
大模型
开源
俄罗斯人开源了最大的文生图模型:参数量12B,比SDXL大了3倍多!
Kandinsky 2.2和DALL-E 2一样采用两阶段生成方案:第一阶段采用一个prior模型基于文本生成图像的CLIP image
embedding
,第二阶段使用CLIP image
embedding
Kandinsky-3
文生图
开源模型
开源
【开源看AI】4.2K star!Reor:AI自动帮你发现知识之间的连接
包括导入你的笔记文件夹、
Embedding
和LLM的设置。
Reor
开源工具
知识管理
RAG
Rerank——RAG中百尺竿头更进一步的神器,从原理到解决方案
模型:
Embedding
模型的选择其实很魔性,我们在优化过程中也会不断否定之前的一些判断。
RAG
检索增强
数据库
主流向量数据库一览
简单下个定义,因为喂给Transformer的知识首先需要做
embedding
,所以用于存储
embedding
之后数据的数据库即可称为向量数据库。
向量数据库
RAG
Langchain中改进RAG能力的3种常用的扩展查询方法
RecursiveCharacterTextSplitter(chunk_size=100, chunk_overlap=0) splits = text_splitter.split_documents(data)# VectorDB
embedding
检索增强生成
Langchain
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
为了适应新的tokenizer,将transformer模型的
embedding
矩阵从 V*h 扩展到 V'*h ,新加入的中文token附加到原始
embedding
矩阵的末尾,确保原始词表表的
embedding
大模型
ChatGLM
LangChain + ChatGLM2-6B 搭建私域专属知识库
微调后模型 LangChain + ChatGLM2-6B 构建知识库 LangChain 知识库技术原理 目前市面上绝大部分知识库都是 LangChain + LLM +
embedding
知识库
大模型
图解大模型训练之:张量模型并行(TP),Megatron-LM
4.1 输入层
Embedding
我们知道
Embedding
层一般由两个部分组成: · word
embedding
:维度(v, h),其中v表示词表大小。
开源模型
<
1
2
3
4
5
6
7
8
9
10
>
1
2
4
5
6
7
8
9
100