首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· Stable Diffusion|提示词高阶用法(二)双人同图
· 复旦开源中文医疗大模型,基于百川微调,模型和数据集都公开
· Suno音乐新手指南(手把手完整版教程)
· 必看!阿里通义千问完整技术报告
· clone-voice:一键克隆声音,开源AI技术让声音创作更便捷、更个性化
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· OmniVision - 968M:小巧精悍的视觉语言模型,释放多模态边缘计算强大潜能
· MCP服务介绍及应用场景报告-来自Manus
· 理解 o3 及其技术分析
· 腾讯悄悄开源混元版「Sora」,这就是开源领域的No.1。
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
【CLIP系列Paper解读】CLIP: Learning Transferable Visual Models From Natural Language Supervision
embedding; · 以N个text embedding为key,以当前image embedding为
query
OpenAI
自然语言监督
大模型
大模型应用的10种架构模式
用户proxy代理在查询发出和返回的过程中对用户的
query
进行拦截。
大模型
架构
大模型
人手一个编程助手!北大最强代码大模型CodeShell-7B开源,性能霸榜,IDE插件全开源
以GPT-2为基础,采用fill-in-middle(FIM)模式支持代码特有的补齐生成方法,引入Grouped-
Query
Attention和ROPE位置编码,最终形成了CodeShell高性能且易于扩展上下文窗口的独特架构
开源模型
AI编程
大模型
中文通用大模型最全汇总
部署门槛较低等众多优秀特性的基础之上,引入了GLM 的混合目标函数,经过了 1.4T 中英标识符的预训练与人类偏好对齐训练;基座模型的上下文长度扩展到了 32K,并在对话阶段使用 8K 的上下文长度训练;基于 Multi-
Query
大模型
开源模型
ChatGLM
【万字长文】LLaMA, ChatGLM, BLOOM的参数高效微调实践
二者之间存在一些细微差别,添加soft prompt时只修改输入的key和value 序列,而不修改
query
。
大模型
微调
训练
Agent
用了一个月,终于找到点写 AI Agent 的思路
;pipelineGetClusterIP = ops.LLMPipeline{ Desc: "
Query
AI
Agent
Ops
运维工具
开源
Falcon 180B 开源影响了谁?
时隔4个月时间,TII便开源了Falcon 180B,从架构维度来看,Falcon 180B 是 Falcon 40B 的升级版本,并在其基础上进行了创新,比如利用 Multi-
Query
Attention
大模型
Stable Diffusion
硬核解读Stable Diffusion(系列一)
其中CrossAttnDownBlock2D模块的主要结构如下图所示,text condition将通过CrossAttention模块嵌入进来,此时Attention的
query
是UNet的中间特征,
StableDiffusion
文生图
Transformer
Transformer速查宝典:模型、架构、训练方法的论文都在这里了
多查询注意力(Multi-
Query
Attention,MQA) 论文地址: https://arxiv.org/pdf/1911.02150.pdf Noam Shazeer
Transformer
RAG
RAG检索增强技术在知识库智能检索场景下的应用实践
2.1.2、步骤2:检索 在检索阶段,模型接收到用户的查询(
Query
),然后利用编码模型将查询转换为向量形式,并在向量数据库中进行相似度比较,找出与查询最相关的K个文本块。
知识库
RAG检索增强
开源
最新最全的开源中文大语言模型列表
部署门槛较低等众多优秀特性的基础之上,引入了GLM 的混合目标函数,经过了 1.4T 中英标识符的预训练与人类偏好对齐训练;基座模型的上下文长度扩展到了 32K,并在对话阶段使用 8K 的上下文长度训练;基于 Multi-
Query
大模型
Stable Diffusion
万字长篇!超全Stable Diffusion AI绘画参数及原理详解
diffusers/main/en/training/lora Additional network超网络是一种微调技术,它是一个附加到稳定扩散模型的小型神经网络,通过插入两个网络来转换key向量和
query
文生图
Agent
谈Agent构建平台的设计
他们不太可能理解: · 这个
query
需要并发执行,充分利用CPU,减少延迟 · 这个请求和另一个请求读写了相同的行,必要等那个事务运行完才能执行 · 为什么某些很简单的数据库变更请求会长时间锁死整个表导致数据库不可用
Agent
构建
万字长文-大语言模型指令调优综述
为了降低GPU微调阶段的内存成本,采用了multi-
query
attention和causal mask strategies。
大语言模型
开源
国内外开源大语言模型一览表
更高效的推理:基于 Multi-
Query
Attention 技术,ChatGLM2-6B 有更高效的推理速度和更低的显存占用:在官方的模型实现下,推理速度相比初代提升了 42%,INT4 量化下,6G
大模型
<
1
2
3
4
5
6
7
>
1
2
4
5
6
7
8
9
100