首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· SD入门教程六:ControlNet基础入门
· 为什么大佬都在说Agent是未来?换个角度来谈一谈
· 如何保证每次画出的都同一张人脸:Stable Diffusion的Reference only教程
· 深度|红杉重磅发布:2024 AI 50 榜单 (全网最全)
· 国内法律类大模型介绍
· Stable Diffusion 30种采样器全解!
· SD-WebUI和ComfyUI的局域网访问设置
· RAG从入门到精通-RAG简介
· Prompt屠龙术-少样本示例
· 现在LLM 的大小为什都设计成6/7B、13B和130B几个档次?
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
RAG
检索增强生成(RAG)有什么好的优化方案
根据我的实践,我们可用更简
单
的图采样技术来进行KG上下文增强。
RAG
检索增强生成
工具
RAG 与 Finetuning,谁是提升 LLM 的最佳工具?
RAG 更简
单
、更便宜,但其质量可能不匹配。
训练
RAG
RAG检索增强技术在知识库智能检索场景下的应用实践
简
单
说,RAG就是先检索后生成,让模型“有据可依”。
知识库
RAG检索增强
大模型
8G显存一键训练,解锁Llama2隐藏能力!XTuner带你玩转大模型
除
单
点功能外,XTuner 还有以下三个黑科技,让开发者可以做到真正的“面向数据”工作。
大模型
ChatGPT
使用ChatGPT检查论文引用、提高研究深度
使用ChatGPT提高研究效率 工具和技术: · 自动化脚本:ChatGPT可以帮您编写简
单
的自动化脚本,以自动执行重复性的数据处理任务
ChatGPT
案例
应用编排的未来是Pipeline,LlamaIndex开发预览版推出Query Pipeline,提升应用开发的灵活性
通过QueryPipeline使得这样的改进变得简
单
,再加上这样的设计客观上,可以避免传统方式的硬编码,提升模块化水平。
Query
Pipeline
大模型
大模型
图解大模型训练之:张量模型并行(TP),Megatron-LM
假设现在W太大,导致
单
卡装不下。
开源模型
教程
SD入门教程三:采样器及参数调整
· 基础功能:启用一定要开启;一个
单
元加载一个AD模型,这些模型需要独立下载,如果要修复一个人物,每个
单
元分别加载一个不同类别的AD模型,比如脸部 ,眼睛等;这里的提示词功能与主提示词填写区域是一致的
SD
入门教程
开源
9.4k Star!MemGPT:伯克利大学最新开源、将LLM作为操作系统、无限上下文记忆、服务化部署自定义Agent
这个技术其实挺简
单
的,就是把内存分成两部分:一部分像电脑的RAM一样直接用来处理信息,另一部分就像硬盘一样存放不是立刻需要的数据。
MemGPT
大语言模型
Stable Diffusion
Stable Diffusion超清放大及修复细节操作
hands and fingers, 迭代步数 (Steps):35 采样方法 (Sampler):DPM++ 3M SDE Exponential 宽度:768 高度:1344 总批次数:1
单
批数量
Stable
Diffusion
文生图
视频
开箱即用的图像增强、视频增强AI工具,Upscapl、Topaz Video AI
easylink.cc/lextuq 2.视频增强工具 Topaz Video AI Topaz Video AI是一款功能强大、操作简
单
的人工智能视频画质增强和修复软件
图像增强
视频增强
AIGC
AIGC生成客服虚拟人
如果想复制直接用tagger,然后图生图就好了,很简
单
的
文生图
90个常用的思维模型
使用系统思维,管理层不是简
单
地责怪某一团队,而是研究了整个业务的协调和沟通流程,从而有效的去解决,可以使两个团队的矛盾得到了缓解。
大模型
工作
人工智能
深度洞察:人工智能体(AI Agent)2024年重要发展趋势指南
简
单
的人工智能体能够解释高级指令、制定计划,然后执行实现目标的步骤。
AI
Agent
人工智能
大模型
详解大模型RLHF过程(配代码解读)
agent拿到的state都是会变化的,通常也会设计奖励函数使得每个step都会有reward;但是在用强化学习微调语言模型这里,prompt是state,只输入一次,然后输出一串action(回答的
单
词
训练
<
...
39
40
41
42
43
44
45
46
47
48
...
>
1
2
4
5
6
7
8
9
100