首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· RVC和SVC声音模型难找?推荐这个网站
· 再也不用担心 AI 图片脸崩手崩了
· 大模型时代 AI 技术在金融行业的创新应用
· 一旦参透「第一性原理」,便洞悉所有事的本质
· Agent具体实现
· 面向知识图谱的大模型应用
· 国内AI大模型已近80个,哪个最有前途?
· StableDiffusion使用Roop插件一键换脸教程
· 全球最大开源prompt社区即将开放中文版
· 国产AI大模型哪家强?十大维度横评四款主流大模型!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
语义检索系统[全]:基于Milvus+ERNIE+SimCSE+In-batch Negatives样本策略的学术文献语义检索
· 知识图谱 · 蜂鸟算法 · RankBrain算法 ·
BERT
模型(大模型) · chatgpt 0.2.1 知识图谱 Google的知识图谱于
开源模型
大模型
九问中国大模型掌门人,万字长文详解大模型进度趋势
我们同时也在思考为什么 GPT-1、GPT-2 本来落后于
BERT
,但 GPT-3 会比它更好?
大模型
详解
微调
2024!深入了解 大语言模型(LLM)微调方法(总结)
你可以使用像GPT-3和
BERT
这样在大量数据上预训练过的LLMs,并根据你的用例进行定制。
大模型
微调
RAG
你真的会写 Prompt ? 剖析 RAG 应用中的指代消解
去做召回,那很有可能召回的是比如这样的知识片段: ['
BERT
和GPT都是NLP领域的重要模型,但它们的设计和应用场景有很大的区别。'
Prompt
大语言模型
RAG
大模型
一个产品经理的大模型观察、反思与预测
2017年~ 2017年:Transformers 横空出世《Attention is All you Need》 2018年:Google
BERT
工作
OCR
中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
实际上,这个团队多年来对于 AI 技术路线作出了很多次精准的预言式判断:从 2018 年投入
BERT
技术路线,2020 年率先拥抱大模型,2023 年初对 AI 智能体(Agent
MiniCPM
大模型
停用词(Stop Words)的价值、收集与使用
这几年,我们经常使用字粒度的语言模型,比如
BERT
、GPT来做NLP任务。
停用词
ChatGPT
2万字大模型调研:横向对比文心一言、百川、Minimax、通义千问、讯飞星火、ChatGPT
随着预训练语言模型的出现,如GPT系列和
BERT
等,大模型在自然语言处理任务中取得了显著成果,推动了人工智能技术的进一步发展。
大模型
调研
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
由16年论文 Gaussian Error Linear Units (GELUs) 提出,随后被GPT-2、
BERT
、RoBERTa、ALBERT 等NLP模型所采用。
大模型
LLM
谈谈LLM在推荐域的渗透,探索推荐新范式
几个改进点: 1、利用大模型的总结和推理能力来对长文档进行总结,因为本身长文档就是有很强的逻辑性的,普通的向量建模方式只能一定程度表征语义,如果用
bert
等传统的来说还有字数限制
大模型
RAG
一文看懂RAG:大语言模型落地应用的未来
它通常使用一个检索系统,比如基于
BERT
的模型,来在大规模的文档集合(例如维基百科)中寻找与输入相关的文段。
rag
检索增强
RAG
图解检索增强式生成(RAG)技术 | 万字长文
例如,标准的基于
BERT
的 Transformer 编码器模型(如 Sentence Transformers)最多处理 512 个 Token,而 OpenAI 的 ada-002 能够处理更长的序列
检索增强式生成
RAG
RAG
高级 RAG 技术——图解概览
标准的 Transformer Encoder 模型(例如基于
BERT
的句子转换器)最多处理 512 个 Token,而像 OpenAI 的 ada-002 则能处理更长的序列,例如 8191
RAG
检索
图解
Transformer
Transformer速查宝典:模型、架构、训练方法的论文都在这里了
它使用预训练的
BERT
式模型将 token 数据库嵌入块中,然后在训练和推理期间对数据库中的最近邻执行分块交叉注意力。
Transformer
大模型
大模型实践总结
典型代表有:
Bert
、RoBERTa等。
大模型
训练
<
1
2
3
4
5
6
>
1
2
4
5
6
7
8
9
100