首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 爆肝两天!ChatGPT+提示词解决知识库目录混乱
· 如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
· ChatPDF | LLM文档对话 | pdf解析关键问题
· 好用的令人发指的图生图,你就告诉我抄哪个吧!—StableDiffusion 第三弹
· 从零开始用LangChain、Pinecone和LLMs搭建你自己的文档问答系统
· 中文开源OCR框架对比及介绍
· 向量数据库失宠了?OpenAI 力捧检索增强生成(RAG)技术,对行业来说意味着什么?
· ComfyUI-ControlNet不能漏啊!
· 腾讯出品!开源AI数字人框架!号称可以不限时长
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
研究人员开源中文文本嵌入模型,填补中文向量文本检索领域的空白
那么,当我们需要模型感知更广阔的上下文时,
应
该怎么做呢?
GPT
没有思考过 Embedding,不足以谈 AI
对于神经网络模型,每一个节点、每一层都必须是连续的,否则便无法计算梯度从而无法
应
用
反向传播算法。
开源模型
LLM
自己电脑上跑大语言模型(LLM)要多少内存?
上文表格里的模型大小和我例子里的内存使
用
情况都是仅考虑使
用
场景是模型推断,既一般的问答。
大语言模型
运行
大模型
大模型+人形机器人,是不是下一个风口?
而从实际
应
用
的角度来看,推动整个产业链走向成熟和完善的可能也是特斯拉。
大模型
Stable Diffusion
Stable Diffusion ControlNet:Reference“垫图”功能,不炼丹也能保持同一人物
翻译:现在我们有一个 reference-only预处理,它不需要任何控制模型即可实现直接使
用
一张图片作为参考来引导扩散。
文生图
ChatGLM
【万字长文】LLaMA, ChatGLM, BLOOM的参数高效微调实践
下面是一些基于ChatGLM衍生出来的大模型
应
用
: langchain-ChatGLM:基于 langchain 的 ChatGLM
应
用
,实现基于可扩展知识库的问答。
大模型
微调
训练
大模型
造梦师手记:C站最受欢迎的大模型推出了SFW版
这和最近Stable Diffusion的广泛
应
用
有关,这个开源软件已经成为很多绘图工具的底层,通过API接口等形式,为
用
户提供各式各样的AI绘图服务。
DreamShaper
大模型
文生图
手把手!做Llama3的MoE专家混合模型!底层原理怎样的?做自己的MoE模型?需要多少算力?
使
用
多个专
用
子网,称为“专家”!
MoE
专家混合模型
ChatGPT
5 种策略控制 ChatGPT 的输出长度
如果想让 ChatGPT 生成更长,更全面的响
应
,可以使
用
"detailed (详细的)", "in-depth (深入的)", 或者 "comprehensive (全面的)" 这样的词。
写作
大模型聊天
ChatGPT
ComfyUI
【ComfyUI】爽玩必备,6大插件汇总推荐 !
,因为它有一个很好的
用
户界面。
comfyui
文生图
ComfyUI
【ComfyUI】爽玩必备!6大插件汇总推荐
,因为它有一个很好的
用
户界面。
大模型
ChatGPT
OpenAI官方ChatGPT提示工程 - 最佳实践11篇(大合集)
提升GPT Prompt效果最佳实践 - 给 GPT 时间思考 5.使
用
外部工具 通过使
用
其他工具的输出来弥补GPT的不足。
ChatGPT
大模型
ComfyUI
ComfyUI学习笔记:插件安装
进一步丰富功能时,需要按需自主添加节点,例如加入LoRA: 也可以使
用
节点搜索(双击空白处): 这与webui一上来就摆好盘的软件操作思路有所不同: 所以之前有webui使
用
经验后
comfyui
插件
绘画
大模型
深入探秘:百川7B大模型的训练代码解析,揭秘巨无霸语言模型背后的奥秘
先说下大模型的理论:大模型的底座模型就是多层的transformer,由于是因果语言建模,它只
用
了transformer的decoder模块。
大模型
大规模训练系列之技术挑战
此时,数据并行的作
用
就可以体现了:对于这些深度学习训练来说,直接增大数据并行的计算资源是比较有效的,投入数倍的计算资源基本上能获取到相
应
的加速倍数。
开源模型
<
...
73
74
75
76
77
78
79
80
81
82
...
>
1
2
4
5
6
7
8
9
100