首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· CLiB中文大模型能力评测榜单(持续更新)
· 社区供稿|GPT-4 与国产模型,大!横!评!
· AI换脸:FaceFusion和Roop在线版修复,支持手机,平板,低配电脑!
· 九问中国大模型掌门人,万字长文详解大模型进度趋势
· 分析了数百万ChatGPT用户会话后发现的秘密
· 【ComfyUI】使用ComfyUI玩SDXL的正确打开方式
· 【Stable Diffusion】SD迎来动画革命,AnimateDiff快速出图
· 45个 DALL-E 3 使用案例 (附提示词) ,人人都是设计师
· SadTalker数字人常见问题3
· 图片生成速度最高提升10倍!可以做到“实时”生成!清华推出LCM/LCM-LoRA!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
国产“小钢炮”MiniCPM3-4B:小参数,大能量!
RAG 三件套:检索、排序、生成全能选手 MiniCPM 3.0 同时发布了 RAG(检索增强生成)三件套:MiniCPM-
Embedding
(检索)、MiniCPM-Reranker
MiniCPM3-4B
大模型
Transformer
保姆级教程:图解Transformer
得到的 Xembedding 的维度是 [batch size, sequence length,
embedding
dimension],
embedding
人工智能
大模型
姜子牙大模型系列 | 为知识检索而生,Ziya-Reader开源,多个长文本中文任务第一
Ziya-Reader和我们的自建向量模型Ziya-
Embedding
达到90.8%的准确率,基于Ziya-Reader的Ziya-Searching-Agent则达到了92.5%。
大模型
Ziya
PDFTriage:面向长篇结构化文档的问答
对于我们的第一个基线,我们使用text-
embedding
-ada-002嵌入对每个文档的页面进行索引。
大语言模型
PDF
文档
LLM
从零开始用LangChain、Pinecone和LLMs搭建你自己的文档问答系统
from langchain.embeddings.openai import OpenAIEmbeddings embeddings = OpenAIEmbeddings(model="text-
embedding
-ada
知识库
langchain
大模型
大模型实践总结
同时,Chinese-LLaMA-Alpaca也指出在进行第一阶段预训练(冻结transformer参数,仅训练
embedding
,在尽量不干扰原模型的情况下适配新增的中文词向量)时,模型收敛速度较慢。
大模型
训练
Sora
解读OpenAI Sora文生视频技术原理
ensp; 一、Spacetime Latent Patches 潜变量时空碎片, 建构视觉语言系统 在“ChatGPT是第一个真正意义的人工通用智能”中,笔者总结过大语言模型借助
Embedding
sora
OCR
中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
MiniCPM-MoE-8x2B 模型总共包含 8 个 expert,全参数量(non-
embedding
)为 13.6B,每个 token 激活其中的 2 个 expert,激活参数量
MiniCPM
大模型
Agent
AI Agent行业深度:框架拆解、应用方向、应用领域及相关公司深度梳理!
向量数据库利用人工智能中的
Embedding
方法,将图像、音视频等非结构化数据抽象、转换为多维向量,由此可以结构化地在向量数据库中进行管理,从而实现快速、高效的数据存储和检索过程,赋予了Agent“长期记忆
AI
Agents
大模型
Agent
AI Agent行业深度:框架拆解、应用方向、应用领域及相关公司深度梳理
向量数据库利用人工智能中的
Embedding
方法,将图像、音视频等非结构化数据抽象、转换为多维向量,由此可以结构化地在向量数据库中进行管理,从而实现快速、高效的数据存储和检索过程,赋予了Agent“长期记忆
AI
Agent
大模型
人工智能
大模型
大模型微调方法总结
类双向语言模型采用模版(P1, x, P2, [MASK], P3),对于单向语言模型采用(P1, x, P2, [MASK]): 同时加了两个改动: 1、考虑到预训练模型本身的
embedding
开源模型
LLM
【一步一步引导】从零详细地梳理一个完整的 LLM 训练流程
120w 行中文文本上训练出一个 5w 规模的 token 集合, 并将这部分 token 集合与原来的 LLaMA 词表做合并, 最后再在 3.2B 的中文语料上对这部分新扩展的 token
embedding
大模型
训练
大模型
使用大模型自动回复小红书/抖音/快手评论:通过RAG 优化LLMs实现
这通常使用所谓的方式为
embedding
文本在概念空间中的数值表示。
RAG
大模型
自动回复
ComfyUI
必看!ComfyUI故障应对指南,让您轻松应对每一个挑战
首先是与SD(Stable Diffusion)相关的文件,比如checkpoint、Lora和
embedding
文件。
ComfyUI
故障应对
LLM
收藏!万字长文聊聊LLM Agents的现状,问题与未来
注意:这里的
embedding
是text
embedding
,即句向量,需要和词向量分开。
LLM
Agents
<
1
2
3
4
5
6
7
8
9
10
>
1
2
4
5
6
7
8
9
100