首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 耗时80小时!超详细的胎教级Stable Diffusion使用教程,看这一篇就够!
· ComfyUI官方使用手册【官网直译+关键补充】
· 国内法律类大模型介绍
· StableDiffusion模型推荐系列(功能型)
· 大模型中的Top-k、Top-p、Temperature详细含义及解释
· 必看!ComfyUI故障应对指南,让您轻松应对每一个挑战
· 建议收藏:超详细ChatGPT(GPT 4.0)论文润色指南
· AI声音克隆 | 最全最简教程(权威版)
· 本地部署操作AI抠图软件
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
OpenAI
马斯克怒告OpenAI案解密:Ilya看到了什么?125万亿参数Q*细节曝光,53页PDF全网疯转
斯坦福博士Silas Alberti由此猜测,Q*很可能是基于AlphaGo式蒙特卡罗树搜索
token
轨迹。
OpenAI
大模型
大模型
大模型微调经验汇总---LLM finetuning 踩坑经验之谈
通过初步统计发现,LLaMA词表中仅包含很少的中文字符,所以在切词时会把中文切地更碎,需要多个byte
token
才能拼成一个完整的汉字,进而导致信息密度降低。
大模型
人工智能
RAG
RAG应用中数据处理过程需要注意的事项
这个问题经常出现在朴素的分块方法中,它涉及到按字符或
token
分割。
RAG
大模型
【提前体验GPT-5】吴恩达AI智能体工作流详细解读
于此同时,因为智能体工作流的特性决定了它总是需要花费一些时间才能生成答案, 所以,快速生成
token
的技术研究也将成为一种趋势。
GPT-5
智能体
大模型
【手把手带你微调 Llama3】 改变大模型的自我认知,单卡就能训
8B-Instruct模型 pip install -U huggingface_hub mkdir -p /root/model/ huggingface-cli download --
token
Llama3
对话问答模型
Stable Diffusion
硬核解读Stable Diffusion(系列一)
对于输入text,送入CLIP text encoder后得到最后的hidden states(即最后一个transformer block得到的特征),其特征维度大小为77x768(77是
token
的数量
StableDiffusion
文生图
大模型
图解大模型训练之:张量模型并行(TP),Megatron-LM
其中: · b:batch_size,表示批量大小 · s:sequence_length,表示输入序列的长度 · h:hidden_size,表示每个
token
向量的维度
开源模型
Fastwhisper + Pyannote 实现 ASR + 说话者识别
spk_rec_pipeline = Pipeline.from_pretrained("pyannote/speaker-diarization-3.1", use_auth_token="your huggingface
token
faster-whisper
语者识别
ASR
开源
3 个令人惊艳的 AI 文档神器,开源了!
后来居上的 Claude,也在该特性上持续发力,将原有大模型的
Token
上限硬生生拉到了 100K(约 7.5 万个单词)。
大模型
开源模型
大模型
百川智能正式发布130亿参数通用大语言模型百川大模型(Baichuan-13B-Base)
Baichuan-inc/Baichuan-13B-Chat/ 多领域超越ChatGPT 老规矩,先提纲挈领地说一下Baichuan-13B的基本个“模”资料: 中英双语大模型,130亿参数,在1.4万亿
token
大模型
中文
开源
Llama 3突然来袭!开源社区再次沸腾:GPT-4级别模型可以自由访问的时代到来
架构层面,Llama 3选择了经典的仅解码(decoder-only)式Transformer架构,采用包含128K
token
词汇表的分词器。
meta
llama3
大模型
GitHub狂飙3万star的LLM公开资料 - 大模型入门教程
2.1 LLM 架构 虽然不需要深入了解Transformer架构,但了解其输入(
token
)和输出(logits)是很重要的。
LLM
大模型
GitHub
大模型
无一幸免!OpenAI最强竞对Anthropic:“长上下文”让大模型更不安全
2023 年初,LLM 的上下文窗口约为一篇长文的大小(约 4000 个
token
)。
Anthropic
大语言模型
工具
搭建程序员自己的在线工具库 it-tools
其主要功能 Crypto工具类, 生成
token
,哈希文本,生成UUID,文本加解密等10种功能 Converter工具类 Yaml 转化器,Json转化器,Base64字符串编码等15种功能
开源项目
工具类
大模型
会“追问”的Agent,大模型知识库另类实践
决策所需要的
Token
量级远远低于Langchain推送文档切片所需的
Token
量级,可以省不少钱。
大模型
<
...
2
3
4
5
6
7
8
9
10
11
...
>
1
2
4
5
6
7
8
9
100