首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· MCP服务介绍及应用场景报告-来自Manus
· Fooocus,webui,comfyui优缺点
· 还在手写Prompt?这几大网站让你秒找大模型提示词!
· 自己电脑上跑大语言模型(LLM)要多少内存?
· 2024!深入了解 大语言模型(LLM)微调方法(总结)
· YOO简历
· Midjourney AI绘画美女提示词分享三
· stable diffusion如何确保每张图的面部一致?
· Stable Diffusion使用Roop插件一键换脸教程
· AI换脸工具:facefusion使用心得
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
会“追问”的Agent,大模型知识库另类实践
决策所需要的
Token
量级远远低于Langchain推送文档切片所需的
Token
量级,可以省不少钱。
大模型
Stable Diffusion
硬核解读Stable Diffusion(系列一)
对于输入text,送入CLIP text encoder后得到最后的hidden states(即最后一个transformer block得到的特征),其特征维度大小为77x768(77是
token
的数量
StableDiffusion
文生图
大模型
图解大模型训练之:张量模型并行(TP),Megatron-LM
其中: · b:batch_size,表示批量大小 · s:sequence_length,表示输入序列的长度 · h:hidden_size,表示每个
token
向量的维度
开源模型
大模型
无一幸免!OpenAI最强竞对Anthropic:“长上下文”让大模型更不安全
2023 年初,LLM 的上下文窗口约为一篇长文的大小(约 4000 个
token
)。
Anthropic
大语言模型
RAG
RAG应用中数据处理过程需要注意的事项
这个问题经常出现在朴素的分块方法中,它涉及到按字符或
token
分割。
RAG
大模型
开源
3 个令人惊艳的 AI 文档神器,开源了!
后来居上的 Claude,也在该特性上持续发力,将原有大模型的
Token
上限硬生生拉到了 100K(约 7.5 万个单词)。
大模型
开源模型
大模型
百川智能正式发布130亿参数通用大语言模型百川大模型(Baichuan-13B-Base)
Baichuan-inc/Baichuan-13B-Chat/ 多领域超越ChatGPT 老规矩,先提纲挈领地说一下Baichuan-13B的基本个“模”资料: 中英双语大模型,130亿参数,在1.4万亿
token
大模型
中文
开源
Llama 3突然来袭!开源社区再次沸腾:GPT-4级别模型可以自由访问的时代到来
架构层面,Llama 3选择了经典的仅解码(decoder-only)式Transformer架构,采用包含128K
token
词汇表的分词器。
meta
llama3
Fastwhisper + Pyannote 实现 ASR + 说话者识别
spk_rec_pipeline = Pipeline.from_pretrained("pyannote/speaker-diarization-3.1", use_auth_token="your huggingface
token
faster-whisper
语者识别
ASR
Sora
解读OpenAI Sora文生视频技术原理
与ChatGPT首先引入
Token
Embedding 思路一致,针对视觉数据的建模方法则作为构建Sora最重要的第一步。
sora
零一万物
零一万物API开放平台出场!通用Chat多模态通通开放,还有200K超长上下文版本
针对数字,Yi还采用了拆分成单个
token
的方式来提高模型理解力;甚至对于特殊和无法识别的字符,也有专门的应对策略。
零一万物
YI
李开复
Sora
Sora物理悖谬的几何解释
Sora 将视频编码映射到隐空间,再切割成时空补丁,被称为时空令牌(time-space
token
)。
Sora
解释
RAG
图解检索增强式生成(RAG)技术 | 万字长文
它取决于你使用的嵌入模型及其在
Token
上的处理能力。
检索增强式生成
RAG
大模型
回望做大模型一年后的感悟
前一类现在大家基本上都是2T左右
token
起,也有3、4T
token
的数量级的,这类工作即使训练7B的模型也需要几百万的代价,训练30几B的模型更是数千万的成本。
大模型
感悟
大模型
一个产品经理的大模型观察、反思与预测
ensp; 预训练时要处理的数量级:上下文长度通常是 2000、4000 甚至是 100,000(决定GPT在尝试预测序列中的下一个
token
工作
<
...
3
4
5
6
7
8
9
10
11
12
...
>
1
2
4
5
6
7
8
9
100