首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 使用这个工具后,我将 RAG 的准确性和召回率都提高了两倍!
· 硬核解读Stable Diffusion(系列三)
· 大模型狂飙两年后,“六小龙”开始做减法
· ChatGPT写论文指令全集
· 微软研究团队:Sora核心技术及未来机会研究报告-中英对照版
· AI绘画:InstantID Win11本地安装记录!
· 这个数字人开源项目太牛了,非常全面的项目解决方案(含源码)
· 你要牢记的四个常用AI提示词框架:ICIO、CRISPE、BROKE、RASCEF,有助于获取更加稳定和高质量的内容
· 通俗解读大模型微调(Fine Tuning)
· RAG检索增强技术在知识库智能检索场景下的应用实践
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
语义检索系统[全]:基于Milvus+ERNIE+SimCSE+In-batch Negatives样本策略的学术文献语义检索
· 知识图谱 · 蜂鸟算法 · RankBrain算法 ·
BERT
模型(大模型) · chatgpt 0.2.1 知识图谱 Google的知识图谱于
开源模型
企业
检索增强生成(RAG):LLM企业级应用落地的挑战与思考
BERT
等预训练语言模型提供了语义匹配的能力。
大语言模型
RAG检索增强
微调
2024!深入了解 大语言模型(LLM)微调方法(总结)
你可以使用像GPT-3和
BERT
这样在大量数据上预训练过的LLMs,并根据你的用例进行定制。
大模型
微调
大模型
九问中国大模型掌门人,万字长文详解大模型进度趋势
我们同时也在思考为什么 GPT-1、GPT-2 本来落后于
BERT
,但 GPT-3 会比它更好?
大模型
详解
RAG
你真的会写 Prompt ? 剖析 RAG 应用中的指代消解
去做召回,那很有可能召回的是比如这样的知识片段: ['
BERT
和GPT都是NLP领域的重要模型,但它们的设计和应用场景有很大的区别。'
Prompt
大语言模型
RAG
大模型
一个产品经理的大模型观察、反思与预测
2017年~ 2017年:Transformers 横空出世《Attention is All you Need》 2018年:Google
BERT
工作
OCR
中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
实际上,这个团队多年来对于 AI 技术路线作出了很多次精准的预言式判断:从 2018 年投入
BERT
技术路线,2020 年率先拥抱大模型,2023 年初对 AI 智能体(Agent
MiniCPM
大模型
ChatGPT
2万字大模型调研:横向对比文心一言、百川、Minimax、通义千问、讯飞星火、ChatGPT
随着预训练语言模型的出现,如GPT系列和
BERT
等,大模型在自然语言处理任务中取得了显著成果,推动了人工智能技术的进一步发展。
大模型
调研
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
由16年论文 Gaussian Error Linear Units (GELUs) 提出,随后被GPT-2、
BERT
、RoBERTa、ALBERT 等NLP模型所采用。
大模型
停用词(Stop Words)的价值、收集与使用
这几年,我们经常使用字粒度的语言模型,比如
BERT
、GPT来做NLP任务。
停用词
LLM
谈谈LLM在推荐域的渗透,探索推荐新范式
几个改进点: 1、利用大模型的总结和推理能力来对长文档进行总结,因为本身长文档就是有很强的逻辑性的,普通的向量建模方式只能一定程度表征语义,如果用
bert
等传统的来说还有字数限制
大模型
RAG
一文看懂RAG:大语言模型落地应用的未来
它通常使用一个检索系统,比如基于
BERT
的模型,来在大规模的文档集合(例如维基百科)中寻找与输入相关的文段。
rag
检索增强
RAG
图解检索增强式生成(RAG)技术 | 万字长文
例如,标准的基于
BERT
的 Transformer 编码器模型(如 Sentence Transformers)最多处理 512 个 Token,而 OpenAI 的 ada-002 能够处理更长的序列
检索增强式生成
RAG
RAG
高级 RAG 技术——图解概览
标准的 Transformer Encoder 模型(例如基于
BERT
的句子转换器)最多处理 512 个 Token,而像 OpenAI 的 ada-002 则能处理更长的序列,例如 8191
RAG
检索
图解
Transformer
Transformer速查宝典:模型、架构、训练方法的论文都在这里了
它使用预训练的
BERT
式模型将 token 数据库嵌入块中,然后在训练和推理期间对数据库中的最近邻执行分块交叉注意力。
Transformer
<
1
2
3
4
5
6
>
1
2
4
5
6
7
8
9
100