首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· Stable Diffusion|提示词高阶用法(二)双人同图
· 复旦开源中文医疗大模型,基于百川微调,模型和数据集都公开
· Suno音乐新手指南(手把手完整版教程)
· 必看!阿里通义千问完整技术报告
· clone-voice:一键克隆声音,开源AI技术让声音创作更便捷、更个性化
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· OmniVision - 968M:小巧精悍的视觉语言模型,释放多模态边缘计算强大潜能
· MCP服务介绍及应用场景报告-来自Manus
· 理解 o3 及其技术分析
· 腾讯悄悄开源混元版「Sora」,这就是开源领域的No.1。
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Github
经典Prompt欣赏 - GitHub Copilot Chat
Notebook · · Ask questions about VS Code · 关于VS Code的问题 · · Generate
query
prompt
提示词
大模型
玩转大模型必备:milvus向量数据库私有化安装部署及使用介绍
这里面我了例子: import -c car 'D:\工作临时\2023\2023-7\2023年7月11日\vectors.csv' 4.4 查询
query
向量数据库
大模型
使用知识图谱提高RAG的能力,减少大模型幻觉
通过构建查询引擎对知识图谱进行查询
query
= "What is ESOP?"
RAG
大语言模型
数据库
主流向量数据库一览
即如何根据一个
query
快速找到相关的embedding内容。
向量数据库
开源
Embedding开源模型重磅玩家:北京智源人工智能研究院最新Embedding模型发布!登顶MTEB,免费商用授权!
wudao数据集:https://www.datalearner.com/blog/1051648084659749 在微调阶段,BGE使用三元组数据(
query
, positive, negative
开源模型
大模型
国内首个!最火的MoE大模型APP来了,免费下载,人人可玩
△结果首先参考了央视网的链接 并且利用大模型来对用户搜索指令做
Query
改写,深入挖掘用户真实意图。
MoE大模型
APPa
Prompt
30条 SEO Prompt
Double Down HARO Link BuildingPrompt: Write a HARO response on behalf of {name, designation} for {HARO
query
SEO
提示词
一人搞定30万商品分类:AI落地实践故事!
nbsp; try:
query
embedding
大数据
分类
大模型
使用大模型自动回复小红书/抖音/快手评论:通过RAG 优化LLMs实现
· # assemble
query
engine  
RAG
大模型
自动回复
大模型
大模型微调数据选择和构造技巧
比如小红书上,
query
的意图识别里,美食,穿搭,旅游攻略类非常多,但是还有一些同学去搜大模型微调的数据技巧。
大模型
微调
SQL
RLHF 在 Text2SQL 领域中的探索
顾名思义就是把文本转化为 SQL 语言,更学术一点的定义是:把数据库领域下的自然语言(Natural Language,简写为 NL)问题,转化为在关系型数据库中可以执行的结构化查询语言(Structured
Query
Text2SQL
RLHF
微软
微软打破Decoder-Only架构!大幅降低GPU内存需求,网友:把Llama3 70B弄20GB GPU上运行
而交叉解码器使用标准的多头交叉注意力,
Query
向量通过注意力与自解码器产生的全局键值缓存相关联。
Decoder-Decoder
YOCO
架构
ChatGLM
手把手带你微调一个自己的 ChatGLM2-6B 模型
o o • 更高效的推理:基于 Multi-
Query
Attention 技术,ChatGLM2-6B 有更高效的推理速度和更低的显存占用:在官方的模型实现下
ChatGLM2-6B
Transformer
万字长文震撼来袭!揭秘Transformer——吐血解读自注意力机制的革命性突破
ensp; Decoder(解码器)架构 3.2 Attention(注意力机制) Attention 3.2 注意力机制 注意力函数可以描述为一个将查询(
query
Transformer
大模型
大模型
快手大模型出炉!【快意】来袭!
具体而言,我们将待评测模型与ChatGPT进行双盲对比测试:对于每一个
Query
,我们隐藏模型信息,并打乱两个模型的答案顺序,然后分配给多名评测者,评测人员根据内容正确性、内容相关性、内容详实性等维度进行打分
开源模型
<
1
2
3
4
5
6
7
>
1
2
4
5
6
7
8
9
100