首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 耗时80小时!超详细的胎教级Stable Diffusion使用教程,看这一篇就够!
· ComfyUI官方使用手册【官网直译+关键补充】
· 国内法律类大模型介绍
· StableDiffusion模型推荐系列(功能型)
· 大模型中的Top-k、Top-p、Temperature详细含义及解释
· 必看!ComfyUI故障应对指南,让您轻松应对每一个挑战
· 建议收藏:超详细ChatGPT(GPT 4.0)论文润色指南
· AI声音克隆 | 最全最简教程(权威版)
· 本地部署操作AI抠图软件
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Deepseek-V2技术报告解读!全网最细!
在RoPE的实现中,如果想要直接让模型的 q, k 具有位置性质,通常是这样做的,m,n 代表特定位置的
token
,R的含义可以查阅RoPE: 计算输出的attention得分时,整个过程变成了:
Deepseek-V2
大模型
Prompt
Prompt及AI提问实践
比如某些模型对输入
token
处理时,会进行截取操作,导致多轮对话的部分信息失效,此时把Prompt放在不同的位置会产生差异较大的结果。
Prompt
大模型
提问
Stable Diffusion
Stable Diffusion 加速/优化/升级 优化出图速度
3.启用
Token
Merging Ratio 在SD WebUI中,进入设置——优化设置——将
Token
合并比率设置为0.2-0.5之间。
Stable
Diffusion
文生图
Prompt
解读提示工程(Prompt Engineering)
在beam搜索中,模型假设一组最有可能的前“k”个
token
,而不仅仅考虑每个步骤中最有可能的
token
。
Prompt
提示词
一位芯片投资人的十年复盘:谁是中国的英伟达|AI光年
transformer,怎样增加带宽和显存容量,以GPT3为例,他把全世界的知识压缩到了1750 亿参数的大模型里,对于芯片来讲,现在很大的瓶颈是数据交换,上下文尤其是长文本拥有巨大的信息量,生成一个
token
AI光年
芯片投资
Sora
Sora懂不懂物理世界?
的基本原理 Sora的训练集为短视频集,每个样本是一个短视频,Sora将其编码到数据空间进行降维,然后在隐空间中将特征向量切割成补丁,加上时间顺序,构成时空补丁,亦即时空令牌(time-space
token
文生视频
视频生成
sora
QWen1.5: 卓越模型之路
model.is_quantized = load_in_8bit or load_in_4bit # make sure
token
Qwen1.5
开源模型
大模型
深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型
1.3、每个
Token
仅需2个专家即可高效处理 Mixtral 8x7B最引人注目的特点之一是其对处理效率的强调。
开源模型
Mixtral
8x7B
大语言模型应用中的文本分块策略
其次,它将确定是否能够在将检索到的文本发送到外部模型提供者(例如OpenAI)之前将其放入上下文中,因为我们可以为每个请求发送的
token
数量受到限制。
开源模型
大模型
微调、训练大模型概念介绍及论文笔记:Tuning系列论文笔记
直接在预训练语言模型中统一建模,比如GPT2/GPT3 前缀微调(Prefix-tuning) 将prompt方式扩展到连续空间,在每层输入序列前面添加prompt连续向量【随机初始化,并不对应到具体的
token
训练
微调
RAG
RAG与Long-Context之争—没必要争
很多极端的人说可能就不存在领域大模型了,但仔细想想,即使Gemini支持1M
Token
、Kimi-Chat支持200w字,也就是400多个PDF(假设一个PDF平均有5k字),垂直领域(不抬杠,这里特指一些大领域
RAG
Long-Context
大模型
大模型
大模型微调方法总结
与提示(prompt)不同的是,前缀完全由自由参数组成,与真正的
token
不对应。
开源模型
Meta
学术党狂喜,Meta推出OCR神器,PDF、数学公式都能转
在训练过程中,研究团队也会通过随机替换
token
的方式,对实际文本添加扰动。
大模型
AI Comic Factory:AI(连环)漫画生成器
要激活它,请创建一个 .env.local 配置文件: LLM_ENGINE="INFERENCE_API" HF_API_TOKEN="Your Hugging Face
token
生成式AI
Prompt
Prompt 策略:代码库 AI 助手的语义化搜索设计
即: 1.代码的平均
Token
到字符比例约为1:5(300 个
Token
),而嵌入模型的
Token
上限为 512 个。
prompt
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100