首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 第一性原理以及第一性原理是怎么帮马斯克成为首富的
· Coze多智能体(Multi-Agents)模式体验!
· 一键AI换脸!小红书和北大合作的InstantID
· 【AI绘画】入门英文名词解析
· 让你每次都随机生成各种图片,开盲盒的感觉:SD插件之无限抽卡神器Dynamic Prompts
· ComfyUI官方使用手册【官网直译+关键补充】
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· 【语音领域-又双叒更新】阿里开源FunAudioLLM: 2大核心模型、5大亮点功能!效果炸裂!手把手带你理论+实战部署推理!
· 【AI代理】扣子,开始探索多代理模式
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
AI Comic Factory:AI(连环)漫画生成器
首先,该项目是开源的,但需要多个组件来运行,包括前端、后端、
LLM
(大型语言模型)、SDXL等。
生成式AI
大语言模型应用中的文本分块策略
在构建与
LLM
相关的应用时,分块(chunking)是将大段文本分解为较小段的过程。
开源模型
大模型
大模型RAG检索增强问答如何评估:噪声、拒答、反事实、信息整合四大能力评测任务探索
LLM
预计会发出"信息不足"或其他拒绝信号。
大模型
RAG检索增强
RAG
检索增强生成 (RAG):What, Why and How?
机器学习从业者在RAG流程不同阶段使用多种技术来改善
LLM
性能。
检索增强
大模型
Agent
AI领域的agent是什么意思?
基于大语言模型(
LLM
)的 AI Agent 利用
LLM
进行记忆检索、决策推理和行动顺序选择等,把Agent的智能程度提升到了新的高度。
大模型
大模型
EduChat:教育行业垂直领域大模型
第一个挑战:
llm
和教育专家之间仍然存在差距,因为
llm
是在通用语料库上进行预训练的,缺乏足够的教育知识,不能很好地与真实场景(例如,论文评估)对齐。
教育
大模型
垂直领域
OpenAI
来自OpenAI应用研究主管关于Agent的万字长文-AI Agents介绍
前者使
LLM
能够与环境交互(例如使用维基百科搜索API),后者能够促使
LLM
生成自然语言的推理轨迹。
Agent
Prompt
自动优化Prompt:Automatic Prompt Engineering的3种方法
好的prompt可以激发
LLM
的最大潜能,从而在下游任务取得好的效果。
prompt
大模型
开源
Embedding开源模型重磅玩家:北京智源人工智能研究院最新Embedding模型发布!登顶MTEB,免费商用授权!
Embedding模型作为大语言模型(Large Language Model,
LLM
)的一个重要辅助,是很多
LLM
应用必不可少的部分。
开源模型
RAG
谈谈RAG存在的一些问题和避免方式
我觉得去研究和实践基于
LLM
的应用更实际,而RAG就是非常好的一个方向,这对于很多企业来说是刚需。
RAG
大模型
Prompt
解读提示工程(Prompt Engineering)
提示微调包括了在使用
LLM
之前使用一个小的可训练模型。
Prompt
提示词
Agent
十篇高质量的AI-Agents相关论文,让AI教你认识AI-Agents
的AI Agents是AGI领域接下来重要的发展方向,使得很多原本嘲笑Auto-GPT开发者,开始更多开始正视基于
LLM
驱动的AI-Agents系统。
开源模型
微调
Qwen7b微调保姆级教程
前方干货预警:这可能是你能够找到的,最容易理解,最容易跑通的,适用于各种开源
LLM
模型的,同时支持多轮和单轮对话数据集的大模型高效微调范例。
Qwen7b
大模型
人工智能
人工智能大语言模型微调技术:SFT 、LoRA 、Freeze 监督微调方法
在快速发展的人工智能领域,高效且有效地利用大型语言模型 (LLM) 变得越来越重要。但是我们可以通过许多不同的方式使用大型语言模型,如果您刚开始,这可能会让人不知所措。本质上,我们可以通过两种主要方式将预训练的大型语言模型用于新任务:上下文学习(in-context learning)和微调(finetuning)。在本文中,我们将介绍介绍微调 LLM 的各种方法。
大模型
微调
ChatGLM
60分钟吃掉ChatGLM2-6b微调范例~
干货预警:这可能是你能够找到的最容易懂的,最完整的,适用于各种NLP任务的开源
LLM
的finetune教程~ ChatGLM2-6b是清华开源的小尺寸
LLM
,只需要一块普通的显卡(32G较稳妥)即可推理和微调
开源模型
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100