首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 硬核解读Stable Diffusion(系列一)
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· 新华妙笔
· MidjourneyV6高级提示词技巧(人物篇)
· 吴恩达Prompt教程之总结图解
· 开箱即用的图像增强、视频增强AI工具,Upscapl、Topaz Video AI
· 自动化神器Autolt:不再重复工作
· StableDiffusion常用热门模型下载站点推荐(国内版)
· 点评:六大向量数据库
· 第3期 SDXL和SD的10大区别!你知道几个?
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
OpenAI
Ilya认错,Scaling Law崩了?自曝SSI秘密技术路线取代OpenAI
今年2月登场的世界最快大模型Groq,每秒500
token
直接破了纪录,自研的LPU在LLM任务上比英伟达GPU性能快了10倍。
Scaling
Law
AI大模型
我如何夺冠新加坡首届 GPT-4 提示工程大赛 [译]
这非常关键,因为你的提示是作为一个长的
Token
序列一次性传给模型的。
GPT-4
提示词
清华
震撼科技界:清华大学与智谱AI联手,引领中文长文智能写作新纪元!
损失计算:采用
token
平均损失计算策略,避免长文本样本在训练中被忽略。
写作
长文本
活久见,世界上第一个被人类骗走钱的AI,刚刚出现了!
但总体来说,至少在当下,你并不是在询问某个神奇的 AI,而是在向背后的人类数据标注员提问——他们的集体知识和经验被压缩并转化成了大语言模型中的
token
序列。
Freysa
智能体
OpenAI
OpenAI的官方Prompt工程指南详解 - 看这一篇真的就够了
其实就是总结几百页PDF文档的原理,比如让大模型总结一本书,肯定是超
Token
上限了嘛,所以可以使用一系列查询来总结文档的每个部分。
提示词
prompt
OpenAI
OpenAI的官方Prompt工程指南详解 - 看这一篇真的就够了!
其实就是总结几百页PDF文档的原理,比如让大模型总结一本书,肯定是超
Token
上限了嘛,所以可以使用一系列查询来总结文档的每个部分。
OpenAI
Prompt
提示词
Stable Diffusion
Stable Diffusion WebUI v1.8.0重大更新!
扩展不区分大小写 · 如果扩展页面未加载,请防止应用 · 调用img2img中正确的
token
SD
画图
ChatGPT
万字长文|40万人学习过|28个ChatGPT使用技巧,带你从入门到精通
梳理大纲再进行写作 在展开这个话题之前,我们需要回顾ChatGPT的两大特点:一是它是一个不断猜测下一个单词是什么的工具,所以ChatGPT不会对自己的内容有整体的规划性;二是ChatGPT的对话有上下文的
token
ChatGPT
使用技巧
教程
大模型
中国大模型「顶流群聊」笔记
甚至突然有一天会发现你原来练的那些模型基本都没啥用,当技术换代或者更强的开源模型出来,过去的投入可能完全「打水漂」,比如开源模型在预训练上看了一万亿的英文
Token
,你自己的模型非要再看一遍,可能毫无意义
大语言模型
OpenAI
被低估的面壁:打造出不输 OpenAI 的 Scaling Law 曲线
面壁未来会在端侧有较多动作,团队已经在尝试用 iPhone 15 Pro 去跑 仅有1.2B参数的 MiniCPM-1.2B模型,一秒能吐 25 个
token
,即人的语速的15~25倍,未来在端侧就能完成的任务就能与云侧解耦
Grok-1
开源模型
Sora
微软对 Sora 进行了逆向工程分析,揭秘 Sora 的秘密
这些潜码片段,相当于语言模型中的词汇
Token
,为 Sora 提供了构建视频的详细视觉“短语”。
Sora
微软
Prompt
Effective Prompt: 编写高质量Prompt的14个有效方法
造成这一现象的原因,一方面是因为大部分正式文本的开头和结尾都是比较重要的部分,因此模型会更关注开头结尾,另一方面是模型本身存在近期偏见(recency bias),生成时会关注离当前
token
更近的文本
prompt
提示词
开源
最新最全的开源中文大语言模型列表
据悉,“书生·浦语”具有1040亿参数,基于“包含1.6万亿
token
的多语种高质量数据集”训练而成。
大模型
ChatGPT
聊天机器人阅读 PDF?用这25个提示词技巧,亲测有效!(ChatGPT & Claude 2)
由于
Token
数量的优势,Claude 2 在这类任务中表现更佳。
GPT-4
工作
ChatGPT
11个非常简短却十分神奇的 ChatGPT 指令,刷新你的认知
它是按照
Token
来处理文本的。
提示词
<
...
5
6
7
8
9
10
11
12
13
14
>
1
2
4
5
6
7
8
9
100