首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 第一性原理以及第一性原理是怎么帮马斯克成为首富的
· Coze多智能体(Multi-Agents)模式体验!
· 一键AI换脸!小红书和北大合作的InstantID
· 【AI绘画】入门英文名词解析
· 让你每次都随机生成各种图片,开盲盒的感觉:SD插件之无限抽卡神器Dynamic Prompts
· ComfyUI官方使用手册【官网直译+关键补充】
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· 【语音领域-又双叒更新】阿里开源FunAudioLLM: 2大核心模型、5大亮点功能!效果炸裂!手把手带你理论+实战部署推理!
· 【AI代理】扣子,开始探索多代理模式
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
Embedding开源模型重磅玩家:北京智源人工智能研究院最新Embedding模型发布!登顶MTEB,免费商用授权!
wudao数据集:https://www.datalearner.com/blog/1051648084659749 在微调阶段,BGE使用三元组数据(
query
, positive, negative
开源模型
数据库
主流向量数据库一览
即如何根据一个
query
快速找到相关的embedding内容。
向量数据库
大模型
国内首个!最火的MoE大模型APP来了,免费下载,人人可玩
△结果首先参考了央视网的链接 并且利用大模型来对用户搜索指令做
Query
改写,深入挖掘用户真实意图。
MoE大模型
APPa
Prompt
30条 SEO Prompt
Double Down HARO Link BuildingPrompt: Write a HARO response on behalf of {name, designation} for {HARO
query
SEO
提示词
一人搞定30万商品分类:AI落地实践故事!
nbsp; try:
query
embedding
大数据
分类
微软
微软打破Decoder-Only架构!大幅降低GPU内存需求,网友:把Llama3 70B弄20GB GPU上运行
而交叉解码器使用标准的多头交叉注意力,
Query
向量通过注意力与自解码器产生的全局键值缓存相关联。
Decoder-Decoder
YOCO
架构
大模型
使用大模型自动回复小红书/抖音/快手评论:通过RAG 优化LLMs实现
· # assemble
query
engine  
RAG
大模型
自动回复
大模型
大模型微调数据选择和构造技巧
比如小红书上,
query
的意图识别里,美食,穿搭,旅游攻略类非常多,但是还有一些同学去搜大模型微调的数据技巧。
大模型
微调
SQL
RLHF 在 Text2SQL 领域中的探索
顾名思义就是把文本转化为 SQL 语言,更学术一点的定义是:把数据库领域下的自然语言(Natural Language,简写为 NL)问题,转化为在关系型数据库中可以执行的结构化查询语言(Structured
Query
Text2SQL
RLHF
大模型
快手大模型出炉!【快意】来袭!
具体而言,我们将待评测模型与ChatGPT进行双盲对比测试:对于每一个
Query
,我们隐藏模型信息,并打乱两个模型的答案顺序,然后分配给多名评测者,评测人员根据内容正确性、内容相关性、内容详实性等维度进行打分
开源模型
Transformer
万字长文震撼来袭!揭秘Transformer——吐血解读自注意力机制的革命性突破
ensp; Decoder(解码器)架构 3.2 Attention(注意力机制) Attention 3.2 注意力机制 注意力函数可以描述为一个将查询(
query
Transformer
大模型
ChatGLM
手把手带你微调一个自己的 ChatGLM2-6B 模型
o o • 更高效的推理:基于 Multi-
Query
Attention 技术,ChatGLM2-6B 有更高效的推理速度和更低的显存占用:在官方的模型实现下
ChatGLM2-6B
RAG
图解检索增强式生成(RAG)技术 | 万字长文
提示可能是这样的: def question_answering(context,
query
): prompt = 
检索增强式生成
RAG
RAG
RAG与Long-Context之争—没必要争
Long-Context是精排 从计算量角度来看,目前RAG是靠检索系统来进行相关内容过滤,一般采用ES、向量匹配等方法,可以理解计算量较小,也就是文本之间交互较少;而Long-Context相当于用户
Query
RAG
Long-Context
大模型
RAG
RAG 领域的新宠:为什么 AI 圈都在谈论 Jina ColBERT?
Colbert 迟交互机制 与传统的
query
-doc 全交互型 BERT 及目前流行的 Embeddings 模型相比,ColBERT 提出的 Late Interaction (迟交互
rag
大模型
<
1
2
3
4
5
6
>
1
2
4
5
6
7
8
9
100