首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 爆肝两天!ChatGPT+提示词解决知识库目录混乱
· 如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
· ChatPDF | LLM文档对话 | pdf解析关键问题
· 好用的令人发指的图生图,你就告诉我抄哪个吧!—StableDiffusion 第三弹
· 从零开始用LangChain、Pinecone和LLMs搭建你自己的文档问答系统
· 中文开源OCR框架对比及介绍
· 向量数据库失宠了?OpenAI 力捧检索增强生成(RAG)技术,对行业来说意味着什么?
· ComfyUI-ControlNet不能漏啊!
· 腾讯出品!开源AI数字人框架!号称可以不限时长
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
一键部署本地私人专属知识库,开源免费!可接入GPT-4、Llama 3、Gemma、Kimi等几十种大模型,零代码集成。
我们不仅会分享互联网的基础知识,也会探讨互联网的前沿科
技
和发展趋势。
知识库MaxKB
开源
LLM
ChatPDF | LLM文档对话 | pdf解析关键问题
笔者最近在探索ChatPDF和ChatDoc等方案的思路,也就是
用
LLM实现文档助手。
大模型
开源
14.4K Star,一款漂亮、快速、现代化的开源免费UI组件库
今天继续给大家推荐一个广受好评的UI组件库:NextUI NextUI 主要特性 NextUI的主要目标是简化开发流程,为增强的
用
户体验提供美观且适应性强的系统设计。
大模型
Sora
OpenAI视频模型Sora的推理生成成本多高?
GPT-4 是 2022 年上半年训练的,据说 OpenAI
使
用
了 25000 张 A100。
Sora
推理
算力
大模型
大模型的研究新方向:混合专家模型(MoE)
MoE提出的前提是如果有一个包括了多个领域知识的复杂问题,我们该
使
用
什么样的方法来解决呢?
MoE
大模型
取代 Vue 和 React?25 年码龄程序员不满 Web 现状创建新框架 Nue JS,能将代码量减少 10 倍!
乔布斯的名言:“一切应该以客户体验为起点,再据此倒推
技
术实现。”
开源模型
Agent
谈Agent构建平台的设计
平台是否会对他们提出过分的
技
能/知识要求?
Agent
构建
Meta
如何微调Meta Llama-3 8B
目录概览: 微调微调是机器学习中
使
用
的一种
技
术,尤其是大型语言模型 (LLM)。
Meta
Llama
3
大模型
大模型
大模型微调方法总结
--->成立了大模型学习
技
术讨论群,学术、前沿资讯、
技
术讨论,移至文末加入我们 方法 LoRA 的实现思想很简单,如下图所示,就是冻结一个预训练模型的矩阵参数,并选择
用
A 和 B 矩阵来替代
开源模型
一旦参透「第一性原理」,便洞悉所有事的本质
“
使
用
的
技
术是否已经过时?”
第一性原理
大模型
Stable Diffusion
Stable Diffusion AnimateDiff | 最火文本生成视频插件库
AnimateDiff介绍 AnimateDiff采
用
控制模块来影响Stable Diffusion模型,通过大量短视频剪辑的训练,它能够调整图像生成过程,生成一系列与训练视频剪辑相似的图像。
动画
视频
AnimateDiff
视频
绝对是你的下载神器!AixDownloader可让你从任何网页下载你想要的内容,音乐、视频、图像、文件等!
你可以直接安装到Chrome浏览器、微软Edge浏览器上
使
用
。
AixDownloader
下载
大模型
发现一个好东西,一键本地运行各种大模型!包括最新的Qwen1.5
GGUF是一种二进制格式文件的规范,旨在
使
原始的大模型预训练结果经过转换后能够更快地被载入
使
用
,并且消耗更低的资源。
Qwen1.5
大模型
大模型
大模型检索增强生成RAG的优化
下面针对每个模块分别做说明(备注:以下内容部分参考了检索增强生成
技
术(RAG)深度优化指南:原理、挑战、措施、展望)。
RAG
检索增强
大模型
大模型
详解大模型RLHF过程(配代码解读)
在游戏场景,每个step给环境一个action之后,agent拿到的state都是会变化的,通常也会设计奖励函数
使
得每个step都会有reward;但是在
用
强化学习微调语言模型这里,prompt是state
训练
<
...
66
67
68
69
70
71
72
73
74
75
...
>
1
2
4
5
6
7
8
9
100