首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 第一性原理以及第一性原理是怎么帮马斯克成为首富的
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 从第一性原理看大模型Agent技术
· ComfyUI官方使用手册【官网直译+关键补充】
· 芯片拼接技术:英伟达新核弹,站在苹果的肩膀上
· AI声音克隆 | 最全最简教程(权威版)
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· 生成式AI与大语言模型的区别
· 自己电脑上跑大语言模型(LLM)要多少内存?
· 深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
手把手教你认识学会LangChain
什么LangChain LangChain:一个让你的
LLM
变得更强大的开源
框
架
LangChain六大主要领域 管理和优化prompt。
langchain
Google
再超Transformer!Google| 提出两个新模型(Griffin、Hawk),强于Mamba,更省资源
不过近年来,深度学习和 NLP 都以 Transformer
架
构为主,该
架
构融合了多层感知器(MLP)和多头注意力(MHA)。
transformer
训练
金融
金融领域Prompt工程方法浅析
三、Prompt设计原则及提示
框
架
如上述所言因金融领域具有其特殊性,我们提出Prompt设计的三大原则: 1、分层拆解原则
prompt
大模型
PDFTriage:面向长篇结构化文档的问答
大型语言模型(
LLM
)在文档问答(QA)中存在一个问题,那就是当文档无法适应
LLM
的小范围上下文长度时。
大语言模型
PDF
文档
RAG
LangChain - RAG: 拿什么「降伏」PDF 中的 Table 类型数据
比如 RA-DIT 试图通过增强 RAG 用到的
LLM
+ 单独训练一个 retriever 的方式加强
LLM
「自有」知识和外挂知识的双向奔赴
大模型
LangChain
RAG
RAG
2023检索增强生成技术(RAG)研究进展
诸如 LangChain 和 LlamaIndex 等工具和
框
架
投入了大量资源来研究和实现RAG技术。
RAG
检索增强
微调
Qwen7b微调保姆级教程
前方干货预警:这可能是你能够找到的,最容易理解,最容易跑通的,适用于各种开源
LLM
模型的,同时支持多轮和单轮对话数据集的大模型高效微调范例。
Qwen7b
大模型
人工智能
人工智能大语言模型微调技术:SFT 、LoRA 、Freeze 监督微调方法
在快速发展的人工智能领域,高效且有效地利用大型语言模型 (LLM) 变得越来越重要。但是我们可以通过许多不同的方式使用大型语言模型,如果您刚开始,这可能会让人不知所措。本质上,我们可以通过两种主要方式将预训练的大型语言模型用于新任务:上下文学习(in-context learning)和微调(finetuning)。在本文中,我们将介绍介绍微调 LLM 的各种方法。
大模型
微调
Agent
谈Agent构建平台的设计
对于有开发能力的人来说:使用这种平台能够减少的开发成本有限,灵活度的不足给他的开发过程带来了不必要的困难;而他们也更喜欢使用自己熟悉的编程语言和
框
架
,学习low-code平台的半吊子系统没什么太多好处。
Agent
构建
RAG
一文看懂RAG:大语言模型落地应用的未来
RAG增强检索的
框
架
RAG研究范式不断发展,本节主要描述了其发展过程。
rag
检索增强
微调
一文讲明白什么是预训练、微调和上下文学习
Transformer
架
构:预训练通常采用基于 Transformer 的
架
构,因为这种
架
构擅长捕获远程依赖关系和上下文信息。
大模型
训练
开源
3 个令人惊艳的 AI 文档神器,开源了!
作为当下较为知名的 AI
框
架
,LangChain 可以帮助开发者轻松构建各种 AI/
LLM
应用和聊天机器人。
大模型
开源模型
ChatGLM
60分钟吃掉ChatGLM2-6b微调范例~
干货预警:这可能是你能够找到的最容易懂的,最完整的,适用于各种NLP任务的开源
LLM
的finetune教程~ ChatGLM2-6b是清华开源的小尺寸
LLM
,只需要一块普通的显卡(32G较稳妥)即可推理和微调
开源模型
大模型
开源大模型部署及推理所需显卡成本必读:也看大模型参数与显卡大小的大致映射策略
例如:Meta 开发并公开发布的 Llama 2 系列大型语言模型 (
LLM
),这是一组经过预训练和微调的生成文本模型,参数规模从 70 亿(7b)
开源模型
LLM
从思维链(CoT),到思维树(ToT),再到思维图(GoT):用LLMs解决复杂问题!
这种方法优点能够将任意
LLM
的思维组合在一起,提炼出整个思维图内容。
大模型
<
...
10
11
12
13
14
15
16
17
18
19
...
>
1
2
4
5
6
7
8
9
100