首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· MCP服务介绍及应用场景报告-来自Manus
· Fooocus,webui,comfyui优缺点
· 还在手写Prompt?这几大网站让你秒找大模型提示词!
· 自己电脑上跑大语言模型(LLM)要多少内存?
· 2024!深入了解 大语言模型(LLM)微调方法(总结)
· YOO简历
· Midjourney AI绘画美女提示词分享三
· stable diffusion如何确保每张图的面部一致?
· Stable Diffusion使用Roop插件一键换脸教程
· AI换脸工具:facefusion使用心得
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
OCR
中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
活动现场,面壁智能演示了 MiniCPM-1.2B 在 iPhone 15 上流畅的运行效果,推理速度提升 38%,达到了 25
token
/s,是人说话速度的 15 到 25 倍。
MiniCPM
大模型
大模型
OCR终结了?旷视提出可以文档级OCR的多模态大模型框架Vary,支持中英文,已开源!
那么对于现在基于 CLIP 视觉词表的多模大模型也是一样的,遇到 “foreign language image”,如一页论文密密麻麻的文字,很难高效地将图片
token
化,Vary 提出就是解决这一问题
OCR
手写
文字识别
大模型
无需翻墙,可合法使用的8款国内AI大模型产品
上海交通大学及清华大学发布 包括书生·多模态、书生·浦语和书生·天际等三大基础模型 书生·浦语(InternLM)是国内首个正式发布的支持8K语境长度的千亿参数级语言大模型, 具有1040亿参数,是在包含18000亿
token
生成式AI
Stable Diffusion
免配置、免翻墙,Stable Diffusion平替来了!
LeonardoAi平台采用代币制,每人每天会有150个
token
,渲染一张图大概3~8token,虽然对于设计师来说,非常大量的生图可能会不够用
LeonardoAI
文生图
OpenAI
OpenAI 上线新功能力捧 RAG,开发者真的不需要向量数据库了?
这些限制不利于大型文档仓库: 每个 Assistant 最多支持 20 个文件 每个文件最大为 512 MB 我们在测试中发现了关于
Token
的隐藏限制
RAG
检索
向量库
RAG
RAG——使用检索增强生成构建特定行业的大型语言模型
research_projects/rag at main · huggingface/transformers · GitHub[2] huggingface: •facebook/rag-
token
-nq
大模型
OpenAI
被时代选中的智谱 AI:成为 OpenAI,超越 OpenAI
在模型训练中,文本需要分割成
token
,只有一种语言的话,
token
的数量是固定的,但如果涉及另一种语言,
token
的数量就会显著增加,整个扩展的词汇表会更大。
智谱
AI
大模型
如何构建基于大模型的App
请记住,每个LLM都有
token
限制(GPT 3.5的令牌限制为4000个),需要确保整个提示的
token
数不超过单次LLM API 调用的
token
限制。
构建
大模型App
大模型
通俗解读大模型微调(Fine Tuning)
Prompt Tuning的基本原理是在输入序列X之前,增加一些特定长度的特殊
Token
,以增大生成期望序列的概率。
大模型
微调
ChatGLM
完整ChatGLM3部署教程,支持手机和车载平台部署
还推出了可在手机上部署的端测模型ChatGLM3-1.5B和ChatGLM3-3B,支持包括vivo、小米、三星在内的多款手机以及车载平台,甚至支持移动平台上CPU芯片的推理,速度可达20tokens每秒(
token
ChatGLM3
大模型
为什么说AI现在还不行!
假设他一年写一部小说3百万字,放大点算1000万
token
。
大模型
开源
【TTS语音克隆开源最强王者】5款爆火开源模型(Fish、F5、GPT、CosyVoice、MaskGCT)效果对比,等你来评!
rm -rf codes_*.npy # 从文本生成语义
token
!
语音克隆
开源模型
LLM
AutoGPT与LLM Agent解析
其中一个典型场景是长 session 的聊天过程,由于 GPT API 本身的输入信息有 4000 个
token
的限制,所以当聊天进行比较久之后,用户经常会发现 ChatGPT 已经“忘了”之前讲过的内容
大模型
ChatGLM
60分钟吃掉ChatGLM2-6b微调范例~
nbsp;datasets.Dataset.from_pandas(dftrain) ds_val = datasets.Dataset.from_pandas(dftest) 2,
token
开源模型
大模型
微调百川Baichuan-13B保姆式教程,手把手教你训练百亿大模型
model_name = 'YeungNLP/firefly-baichuan-13b' device = 'cuda' max_new_tokens = 500 # 每轮对话最多生成多少个
token
大模型
微调
<
...
4
5
6
7
8
9
10
11
12
13
...
>
1
2
4
5
6
7
8
9
100