首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· AI高手都在用的10个提示词prompt网站,建议收藏!
· 大模型业务应用中数据准备的要求、难点及解决思路
· 一文搞定 ComfyUI SDXL1.0 完整流程
· Prompt小技巧(18):万能Prompt
· 比 Roop 和 Reactor 更像!IP Adapter 新模型为任何人做写真
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· 大模型狂飙两年后,“六小龙”开始做减法
· Examful.ai
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
· AI音乐热潮下,“神曲工作室”率先失业
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
数据库
百万
token
上下文窗口也杀不死向量数据库?CPU笑了
一方面,以Claude 3、Gemini 1.5为代表的流派,陆续支持200K和100万
token
的上下文窗口,用大力出奇迹的方式让大模型能够精准检索到关键信息来提供准确答案。
向量数据库
大模型
cpu
LLM
让AI记住你说的话、让AI给你生成几十万字的小说!StreamingLLM 让无限长
token
成为可能
MIT、Meta AI、CMU的论文 传统AI大模型鱼一样健忘的原因 LLM都是在一定长度的数据块(或者叫做序列)上进行预训练的,比如Llama 2就是在4000个单词(或者叫做
token
StreamingLLM
写作
大模型
比GPT-4快18倍,世界最快大模型Groq登场!每秒500
token
破纪录,自研LPU是英伟达GPU 10倍
世界最快的大模型Groq一夜之间爆火,能够每秒输出近500个
token
。
Groq
大模型
RAG
Qwen2.5更新百万超长上下文,推理速度4.3倍加速,网友:RAG要过时了
这不,刚在写代码这事儿上刷新SOTA,Qwen2.5系列又双叒突然更新了—— 一口气读三本《三体》不费事,并且45秒左右就能完整总结出这69万
token
的主要内容, 还真不是糊弄事儿,“大海捞针”实验显示
Qwen2.5
开源模型
大模型
全球最强长文本大模型,一次可读35万汉字:Baichuan2-192K上线
10 月 30 日,百川智能正式发布 Baichuan2-192K 长窗口大模型,将大语言模型(LLM)上下文窗口的长度一举提升到了 192K
token
。
Baichuan2
百川
开源
大模型
Stability AI开年首个大模型:专写代码,支持18种编程语言,上下文100K,苹果笔记本离线就能跑
Stable Code 3B可理解处理18种不同的编程语言,上下文长度100K
token
。
Stability
AI
大模型
中本聪的Web3之路
中本聪是比特币的创始人,也是区块链技术的奠基者。他于2008年10月31日发布了一篇名为《比特币:一种点对点的电子现金系统》的论文,揭开了加密货币的序幕。
token
比特币
加密货币
Prompt
爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
一夜大火的对话式游戏应用“哄哄模拟器”,让我们看到了AI应用的潜力,24小时获得用户70万,也看到了成长烦恼的“账单”,消耗一亿
token
,不得不弃OpenAI替换为国内月之暗面(Moonshot)
提示词
prompt
大模型
国产编程大模型CodeGeex
截至2022年6月22日,CodeGeeX历时两个月在20多种编程语言的代码语料库(>8500亿
Token
)上预训练得到。
编程
开源
7.1k Star!RAGFlow:最新开源OCR+深度文档理解的RAG引擎、大海捞针测试、降低幻觉、服务化API集成进业务!
RAGFlow大大提升知识库RAG的召回率,不仅智能,而且可控可解释、真正在无限上下文(
token
)的场景下快速完成大海捞针测试、提供易用的 API,可以轻松集成到各类企业系统。
OCR
RAG
开源
ChatGPT
ChatGPT羊驼家族全沦陷!CMU博士击破LLM护栏,人类毁灭计划脱口而出
CMU和人工智能安全中心的研究人员发现,只要通过附加一系列特定的无意义
token
,就能生成一个神秘的prompt后缀。
开源模型
谷歌
长窗口大战要终结了?谷歌魔改Transformer,推出了“无限注意力”
谷歌的大模型Gemini 1.5 首先玩了一个百万
token
的,中国的月之暗面一个月后推出Kimi智能助手,支持200万字超长无损上下文,在中国的大模型应用中异军突起。
大模型
上下文
开源
省钱!微软开源框架LLMLingua + LlamaIndex实现提示词压缩
LLMLingua是微软发布的一款开源框架,旨在帮助开发者实现提示词压缩,从而在诸多应用场景中,在尽可能保留有意义的信息时,减少
token
开销,降低成本。
LLMLingua
LlamaIndex
开源框架
ChatGLM
【万字长文】LLaMA, ChatGLM, BLOOM的参数高效微调实践
扩展中文词表后,单个汉字倾向于被切分为1个
token
,避免了一个汉字被切分为多个
token
的问题,提升了中文编码效率。
大模型
微调
训练
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
扩展中文词表后,单个汉字倾向于被切分为1个
token
,避免了一个汉字被切分为多个
token
的问题,提升了中文编码效率。
大模型
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100