首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 第一性原理以及第一性原理是怎么帮马斯克成为首富的
· ChatGLM智谱清言
· 从第一性原理看大模型Agent技术
· Meta无限长文本大模型来了:参数仅7B,已开源
· StableDiffusion模型推荐系列(功能型)
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· 国内法律类大模型介绍
· 阿里的AI一键换衣(AnyDoor)工具来了
· prompt必须知道的26条军规
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
LLM
AutoGPT与LLM Agent解析
其中一个典型场景是长 session 的聊天过程,由于 GPT API 本身的输入信息有 4000 个
token
的限制,所以当聊天进行比较久之后,用户经常会发现 ChatGPT 已经“忘了”之前讲过的内容
大模型
大模型
通俗解读大模型微调(Fine Tuning)
Prompt Tuning的基本原理是在输入序列X之前,增加一些特定长度的特殊
Token
,以增大生成期望序列的概率。
大模型
微调
ChatGLM
完整ChatGLM3部署教程,支持手机和车载平台部署
还推出了可在手机上部署的端测模型ChatGLM3-1.5B和ChatGLM3-3B,支持包括vivo、小米、三星在内的多款手机以及车载平台,甚至支持移动平台上CPU芯片的推理,速度可达20tokens每秒(
token
ChatGLM3
大模型
写作
AI写作不如意?万字长文深度剖析背后原因
因为Claude允许最多的
token
输入,这是我用于这些任务的AI。
AI写作
ChatGLM
60分钟吃掉ChatGLM2-6b微调范例~
nbsp;datasets.Dataset.from_pandas(dftrain) ds_val = datasets.Dataset.from_pandas(dftest) 2,
token
开源模型
大模型
微调百川Baichuan-13B保姆式教程,手把手教你训练百亿大模型
model_name = 'YeungNLP/firefly-baichuan-13b' device = 'cuda' max_new_tokens = 500 # 每轮对话最多生成多少个
token
大模型
微调
LLM
谈谈LLM在推荐域的渗透,探索推荐新范式
2、LLM Tokens + RS 这种方法基于输入的物品和用户特征生成
token
。
大模型
大模型
从零开始了解AI大模型 - 技术篇:万字深度好文人话说大模型技术
GPT-4目前已知信息如下: 更长的上下文 :ChatGPT支持的最长上下文长度为2048个单词(准确说是
token
),而GPT-4则大幅提升了这个数字,支持最长32768个单词的上下文。
大模型
Sora
深度|万字访谈!Open AI Sora作者,亲自揭秘Sora原理,Sora能带我们通往AGI吗?
这些内容被转化成了一种通用的
Token
语言,并在这些不同类型的
Token
上训练大型的Transformer模型,从而形成了一种通用的文本数据模型。
Sora
原理
从⼤模型到 AI 应⽤落地,工程实现有多复杂?
持续更新与调整 ⼤模型都是通过公开可⽤的数据集进⾏预训练的,对单次输⼊⻓度也存在限制,⼀般在 4000 个
Token
大模型
CodeGeeX:Tab一下,代码自动生成
它是一个从左到右生成的自回归解码器,将代码或自然语言标识符(
token
)作为输入,预测下一个标识符的概率分布。
大模型
RAG
RAG 2.0来了,它能成为生产落地的福音吗?
专门进行了大海捞针实验(了解:超长上下文窗口大模型的“照妖镜”——大海捞针实验,大模型“打假”必知必会)创建一个不重复的200万
token
的“大海”,使用包含100多个问题的测试集,评估了CLM、固定-
RAG
大模型
大模型
国内首个!最火的MoE大模型APP来了,免费下载,人人可玩
MoE是一个并行的前馈神经网络,主要由门控模型/路由器(Gating Model/Router)和一组专家模型(Experts Models)构成,当数据输入门控模型/路由器时,系统会根据任务类型将每个
token
MoE大模型
APPa
大模型
大模型高效微调:🤗 PEFT 使用案例
✅ ✅
Token
大模型
RAG
2023检索增强生成技术(RAG)研究进展
通过检索数万亿
Token
(
Token
) 来改善语言模型 https://arxiv.org
RAG
检索增强
<
...
4
5
6
7
8
9
10
11
12
13
>
1
2
4
5
6
7
8
9
100