首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· AI换脸工具:facefusion使用心得
· MCP服务介绍及应用场景报告-来自Manus
· 我用AI写小说:「国学篇」如何将国学插入小说中
· 9.4k Star!MemGPT:伯克利大学最新开源、将LLM作为操作系统、无限上下文记忆、服务化部署自定义Agent
· 使用自己的数据训练清华ChatGLM2-6B 模型
· 大模型中的Top-k、Top-p、Temperature详细含义及解释
· 复旦开源中文医疗大模型,基于百川微调,模型和数据集都公开
· ComfyUI官方使用手册【官网直译+关键补充】
· [Stable Diffusion]SD安装、常用模型(checkpoint、embedding、LORA)、提示词具、常用插件
· YOO简历
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
LLM
让AI记住你说的话、让AI给你生成几十万字的小说!StreamingLLM 让无限
长
token成为可能
,它可以让任何基于Transformer的语言模型(LLM)处理无限
长
度的
文
本
,而不需要任何微调或额外的训练。
StreamingLLM
写作
大模型
发现一个好东西,一键
本
地运行各种大模型!包括最新的Qwen1.5
Qwen这波年终大放送相当给力,将所有模型更新到了1.5版
本
,一次性放出6个尺寸,几十个模型!
Qwen1.5
大模型
大模型
性能超出预期!神秘的国产大模型 Kimi 开放 API
说到 Kimi Chat,去年底已经凭借 20 万字的超
长
上下
文
火了起来。
Kimi
Chat
大模型
API
语音
GLM-4-Voice 9B——实时多语言语音对话 AI——几分钟内即可在
本
地安装
在
本
文
中,我们将探讨为什么GLM-4-Voice值得关注,它的独特之处,以及如何在
本
地设置和开始使用它。
GLM-4-Voice
9B
语音
安装
ChatGPT
ChatGPT论
文
润色进阶指令
此外,GPT-4.0具备处理更
长
文
本
的能力,并有更大的记忆容量,这在整篇
文
章的润色工作中尤为重要。
ChatGPT
写作
大模型
【全
文
翻译】微软166页论
文
解读 GPT-4V:多模态大模型的黎明
GPT-4V 擅
长
理解像素空间编辑,例如在输入图像上绘制的视觉指针(visual pointers)和场景
文
本
(scene text)。
多模态大模型
GPT-4V
文生图
大模型
微调、训练大模型概念介绍及论
文
笔记:Tuning系列论
文
笔记
:越
长
的prompt能带来越好的效果,但模型规模足够大,
长
度影响就很小 【可能是因为越
长
的prompt对应越
长
的参数表达空间,效果自然会变好,但模型规模足够大,则这部分的参数占比可能就不明显】 prompt
训练
微调
ChatGPT
保姆级AI写论
文
,ChatGPT写论
文
指令全集
正
文
写作: 论
文
课题是《xxxxx》,请帮我完成其中一小节内容:xxxxx (输入需要完成课题和小标题,最好是一、二级标题一并输入),请在你的回答中提供具体的例子和数据,以支持你的观点。
ChatGPT
指令
大模型
超越巨头:Zephyr-7B领跑7B级大模型竞赛,开源且笔记
本
可运行
它不仅性能超越了700亿参数的LLaMA2模型,更引人注目的是,这一开源模型可在常规笔记
本
电脑上运行,极大地提高了AI技术的可达性。
大语言模型
开源模型
Yi技术报告细节分享
因此,下面分享内容主要为预训练、微调、
长
文
本
能力以及模型深度扩展。
Yi模型
大模型
开源
QAnything:网易有道最新开源的“
本
地化部署知识库”AI问答系统
项目简介 "QAnything"是网易有道开发的
本
地知识库问答平台。
网易
RAG
知识库
企业
【上篇】深度解析AI大语言模型(LLM)在企业应用的关键技术与典型架构
本
文
将对大模型在企业应用中的落地场景、典型架构与产品选择等做较深入的探讨与分析。
大语言模型
数据库
百万token上下
文
窗口也杀不死向量数据库?CPU笑了
随着新晋大语言模型们的上下
文
窗口(Context Window)变得越发得
长
,业界人士针对“RAG终将消亡”观点的讨论也是愈演愈烈。
向量数据库
大模型
cpu
开源
9.4k Star!MemGPT:伯克利大学最新开源、将LLM作为操作系统、无限上下
文
记忆、服务化部署自定义Agent
MemGPT 允许你使用
长
期记忆和自定义工具构建 LLM Agent 最近有个新项目MemGPT,这个东西真的挺有意思,它可以让大型语言模型,比如让GPT-4这样的llm处理比原生更
长
的上下
文
窗口
MemGPT
大语言模型
大模型
分析过688篇大模型论
文
,这篇论
文
综述了LLM的当前挑战和应用
预训练成
本
高 通过增加计算预算可以提升模型的性能表现,但如果模型或数据集大小固定,则增
长
比率会降低,呈现收益递减的幂律趋势。
开源模型
<
...
5
6
7
8
9
10
11
12
13
14
...
>
1
2
4
5
6
7
8
9
100