首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 请以“续航”为题目,写一篇议论文
· AI换脸工具:facefusion使用心得
· 它来了!SDXL + ControlNet 终于强强联合!
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 一文彻底搞懂多模态 - 多模态推理
· 17岁高中生写了个神级Prompt,直接把Claude强化成了满血o1。
· 垂直领域大模型的思考
· 6个最佳开源TTS引擎
· 绝了!新华社、知网官方出品的写作神器,不要太爽!
· 如何保证每次画出的都同一张人脸:Stable Diffusion的Reference only教程
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型
· 高效处理与模型大
小
的优化:Mixtral 8x7B 特别强调处理效率,在进行推理时每个 Token 只需调用两位“专家”,这样既保证了运算速
度
,又没有牺牲性能。
开源模型
Mixtral
8x7B
大模型
LLM大模型推理输出生成方式总结
(no_repeat_ngram_size=6即代表:6-gram不出现2次) 限制采样Trick Temperature 方式:通过温
度
,控制每个字的概率分布曲线。
大模型
Midjourney
[Midjourney]人物镜头拍摄视角大全
正面拍摄是一种基本的、最常用的拍摄角
度
。
视图
视角
构图
大模型
大模型中的Top-k、Top-p、Temperature详细含义及解释
更改 top-k 参数设置模型在输出每个token时从中抽样的候选列表的大
小
。
大模型
大模型
AI里的大模型,你了解么
大模型的优势如下: 1、精确
度
更高,表现更好。
人工智能
SDXL
它来了!SDXL + ControlNet 终于强强联合!
因此,如果你真的很想玩转 SDXL 模型,我还是建议你开始学习使用 ComfyUI 的使用方法,这会大大要提高 SDXL 的运行速
度
,也能降低对电脑的性能要求。
SDXL
大模型
微调、训练大模型概念介绍及论文笔记:Tuning系列论文笔记
Large Language Models Encode Clinical Knowledge 指令提示微调 IPT的建模示意图 Lora微调 前人研究发现模型是过参数化的,存在更
小
的内在维
度
训练
微调
大模型
大模型应用实践:用LLaMA 2.0, FAISS and LangChain实现基于自由知识问答
它有三种不同的模型大
小
(即7B、13B和70B),与Llama 1模型相比有显著改进,包括在40%更多的tokens上进行训练,具有更长的上下文长
度
(4k tokens ��
开源模型
再也不用担心 AI 图片脸崩手崩了
模型越
小
,处理速
度
越快,代价就是精
度
更低。
ADetailer
安装
文生图
ChatGLM
【万字长文】LLaMA, ChatGLM, BLOOM的参数高效微调实践
FFN通常有两个权重矩阵,先将向量从维
度
d升维到中间维
度
4d,再从4d降维到d。
大模型
微调
训练
Stable Diffusion
硬核解读Stable Diffusion(系列一)
论文进一步将不同的autoencoder在扩散模型上进行实验,在ImageNet数据集上训练同样的步数(2M steps),其训练过程的生成质量如下所示,可以看到过
小
的(比如1和2)下收敛速
度
慢,此时图像的感知压缩率较
小
StableDiffusion
文生图
Agent
LangChain Agent 原理解析
Agent 可以是自主的,具备一定程
度
的智能和自适应性,以便在不同的情境中执行任务。
大模型
大模型
图解大模型训练之:张量模型并行(TP),Megatron-LM
其中: · b:batch_size,表示批量大
小
· s:sequence_length,表示输入序列的长
度
· h:hidden_size,表示每个token向量的维
度
开源模型
大规模训练系列之技术挑战
更多的 featuremap 意味着更强的学习能力,因此对比相同结构的
小
模型,大模型有着更好的精
度
。
开源模型
Google
再超Transformer!Google| 提出两个新模型(Griffin、Hawk),强于Mamba,更省资源
与全局注意力相比,循环块的主要优势在于它们使用固定的状态大
小
来总结序列,而 MQA 的 KV 缓存大
小
则与序列长
度
成正比增长。
transformer
训练
<
...
23
24
25
26
27
28
29
30
31
32
...
>
1
2
4
5
6
7
8
9
100