首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 硬核解读Stable Diffusion(系列一)
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· 新华妙笔
· MidjourneyV6高级提示词技巧(人物篇)
· 吴恩达Prompt教程之总结图解
· 开箱即用的图像增强、视频增强AI工具,Upscapl、Topaz Video AI
· 自动化神器Autolt:不再重复工作
· StableDiffusion常用热门模型下载站点推荐(国内版)
· 点评:六大向量数据库
· 第3期 SDXL和SD的10大区别!你知道几个?
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
使用知识图谱提高RAG的能力,减少大模型幻觉
llm = HuggingFaceInferenceAPI( model_name="HuggingFaceH4/zephyr-7b-beta",
token
RAG
大语言模型
开源
开源大语言模型完整列表
Qwen-7B 系列模型的特点包括: 1.大规模高质量预训练数据:使用了超过 2.2 万亿
token
的自建大规模预训练数据集进行语言模型的预训练。
开源模型
大语言模型
开源
国内外开源大语言模型一览表
PromptCLUE-large在1000亿
token
中文语料上预训练,累计学习1.5万亿中文
token
,并且在数百种任务上进行Prompt任务式训练。
大模型
Transformer
图解 transformer——逐层介绍
在解码器中,目标序列右移一个位置,然后在第一个位置插入一个Start
token
后被送入解码器的嵌入层。
Transformer
大模型
图解
开源
ChatGLM3-6B:新一代开源双语对话语言模型,流畅对话与低部署门槛再升级
ensp; ChatGLM3-TPU: 采用TPU加速推理方案,在算能端侧芯片BM1684X(16T@FP16,内存16G)上实时运行约7.5
token
ChatGLM3
语音模型
开源模型
大模型
大模型推理能力增强方法总结
CoT 就是把一个多步骤推理问题,分解成很多个中间步骤,分配给更多的计算量,生成更多的
token
,再进行求解。
推理能力
大模型
Transformer
图解 Transformer——功能概览
在第二个时间步,解码器输入序列包含句首符号产生的
token
和第一个时间步产生的目标单词。
Transformer
大模型
图解
大模型
大模型RAG检索增强问答如何评估:噪声、拒答、反事实、信息整合四大能力评测任务探索
同时读取这些网页,并将其文本内容转换成最大长度为300个
token
的文本块。
大模型
RAG检索增强
ChatGPT
爆肝两天!ChatGPT+提示词解决知识库目录混乱
不要顾虑
token
限制而生成简略的回答,内容太长你可以让用户回答”继续“来生成完整内容 ## Output Format 使用 Markdown 代码块的格式进行输出,使用 # 代表一级目录
智能分类
大模型
知识库
大模型
什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
预训练数据集RedPajama-Data-1T已开源,包括七个子集,经过预处理后得到的
token
数量大致可以匹配Meta在原始LLaMA论文中报告的数量,并且数据预处理相关脚本也已开源。
大模型
了解Kimi必看的26个问题 | Kimi系列文(二)
上线即支持20万汉字的长上下文,相当于约30~40万
token
,远超当时Claude2的10万和GPT-4的3.2万。
Kimi
大语言模型
RAG
12个RAG常见痛点及解决方案
/llamaguard_pack" ) # you need HF
token
with write privileges for interactions
RAG
大模型
Stable Diffusion
硬核解读Stable Diffusion(系列三)
但其实除了这两种,还有很多其它的研究工作,比如Adobe提出的Custom Diffusion,相比DreamBooth,它只finetune了UNet的attention模块的KV权重矩阵,同时优化一个新概念的
token
Stable
Diffusion
文生图
被高估的Pika,被低估的多模态AI
长期关注 AI 领域投资的心资本合伙人吴炳见认为,大语言模型只是 AI 版图的一部分,基础模型的第一性原理是“predict next
token
大模型
多模态
LLM
最详细的文本分块(Chunking)方法——可以直接影响基于LLM应用效果
如前所述,选择时应考虑内容的性质(例如短文本还是长文档)、将要使用的Embedding模型及其功能(如
token
限制)。
RAG
大模型
<
...
5
6
7
8
9
10
11
12
13
14
>
1
2
4
5
6
7
8
9
100