首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· AI高手都在用的10个提示词prompt网站,建议收藏!
· 大模型业务应用中数据准备的要求、难点及解决思路
· 一文搞定 ComfyUI SDXL1.0 完整流程
· Prompt小技巧(18):万能Prompt
· 比 Roop 和 Reactor 更像!IP Adapter 新模型为任何人做写真
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· 大模型狂飙两年后,“六小龙”开始做减法
· Examful.ai
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
· AI音乐热潮下,“神曲工作室”率先失业
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
微调
一文讲明白什么是预训练、微调和上下文学习
像
BERT
这样的预训练语言模型可以在标有积极或消极情绪的客户评论数据集上进行微调。
大模型
训练
开源
构建开源多模态RAG系统
虽然像GPT-3、
BERT
和RoBERTa这样的大型语言模型在基于文本的任务上表现出色,但在理解和处理其他数据类型时面临挑战。
RAG
大模型
大模型
达摩院SPACE对话大模型:知识注入与知识利用
如下图所示,对话理解领域,2019 年 PolyAI 提出了 ConveRT 模型、2020 年 Salesforce 提出了 TOD-
BERT
模型、2021 年 JingDong 提出了 DialogBERT
大模型
大模型
“大模型+机器人”的现状和未来,重磅综述报告来了!
基础模型主要包括以下几类: 1、大型语言模型(Large Language Models):如
BERT
、GPT-3、PaLM等,主要应用于自然语言处理任务。
论文
机器人
RAG
RAG——使用检索增强生成构建特定行业的大型语言模型
实际上,有超过2个维度 - 对于句子转换器嵌入(句子或文本块通过
BERT
转换器,输出对应于384个维度的384个数字)。
大模型
RAG
RAG检索增强技术在知识库智能检索场景下的应用实践
这个编码模型可以是预训练的语言模型,例如
BERT
、GPT等。
知识库
RAG检索增强
语义检索系统[全]:基于Milvus+ERNIE+SimCSE+In-batch Negatives样本策略的学术文献语义检索
· 知识图谱 · 蜂鸟算法 · RankBrain算法 ·
BERT
模型(大模型) · chatgpt 0.2.1 知识图谱 Google的知识图谱于
开源模型
企业
检索增强生成(RAG):LLM企业级应用落地的挑战与思考
BERT
等预训练语言模型提供了语义匹配的能力。
大语言模型
RAG检索增强
微调
2024!深入了解 大语言模型(LLM)微调方法(总结)
你可以使用像GPT-3和
BERT
这样在大量数据上预训练过的LLMs,并根据你的用例进行定制。
大模型
微调
大模型
九问中国大模型掌门人,万字长文详解大模型进度趋势
我们同时也在思考为什么 GPT-1、GPT-2 本来落后于
BERT
,但 GPT-3 会比它更好?
大模型
详解
RAG
你真的会写 Prompt ? 剖析 RAG 应用中的指代消解
去做召回,那很有可能召回的是比如这样的知识片段: ['
BERT
和GPT都是NLP领域的重要模型,但它们的设计和应用场景有很大的区别。'
Prompt
大语言模型
RAG
大模型
一个产品经理的大模型观察、反思与预测
2017年~ 2017年:Transformers 横空出世《Attention is All you Need》 2018年:Google
BERT
工作
OCR
中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
实际上,这个团队多年来对于 AI 技术路线作出了很多次精准的预言式判断:从 2018 年投入
BERT
技术路线,2020 年率先拥抱大模型,2023 年初对 AI 智能体(Agent
MiniCPM
大模型
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
由16年论文 Gaussian Error Linear Units (GELUs) 提出,随后被GPT-2、
BERT
、RoBERTa、ALBERT 等NLP模型所采用。
大模型
ChatGPT
2万字大模型调研:横向对比文心一言、百川、Minimax、通义千问、讯飞星火、ChatGPT
随着预训练语言模型的出现,如GPT系列和
BERT
等,大模型在自然语言处理任务中取得了显著成果,推动了人工智能技术的进一步发展。
大模型
调研
<
1
2
3
4
5
>
1
2
4
5
6
7
8
9
100