首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 耗时80小时!超详细的胎教级Stable Diffusion使用教程,看这一篇就够!
· ComfyUI官方使用手册【官网直译+关键补充】
· 国内法律类大模型介绍
· StableDiffusion模型推荐系列(功能型)
· 大模型中的Top-k、Top-p、Temperature详细含义及解释
· 必看!ComfyUI故障应对指南,让您轻松应对每一个挑战
· 建议收藏:超详细ChatGPT(GPT 4.0)论文润色指南
· AI声音克隆 | 最全最简教程(权威版)
· 本地部署操作AI抠图软件
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
Meta无限
长
文
本
大模型来了:参数仅7B,已开源
长
文
本
是大语言模型一直在努力的方向。
Meta
长文本
大模型
LLM
StreamingLLM 框架:利用最新标记让 AI 记住你的话、创作
长
篇小说,探索无限
长
度
文
本
(a) 在密集注意力 Dense Attention中,时间复杂度为O(T^2),并且随着缓存大小的增加,性能会下降,特别是当
文
本
长
度超过预训练
文
本
长
度时。
大模型
llm框架
清华
震撼科技界:清华大学与智谱AI联手,引领中
文
长
文
智能写作新纪元!
然而,它们在创作
长
篇
文
本
方面似乎遭遇了难以突破的障碍。
写作
长文本
大模型
全球最强
长
文
本
大模型,一次可读35万汉字:Baichuan2-192K上线
能够一次理解超
长
文
本
的大模型,究竟能做哪些事?
Baichuan2
百川
开源
大模型
姜子牙大模型系列 | 为知识检索而生,Ziya-Reader开源,多个
长
文
本
中
文
任务第一
另外,大模型
本
身有着幻觉问题,检索增强也是最直接的解决方案。
大模型
Ziya
ChatGPT
使用ChatGPT写出优质
长
文
、
文
章
在ChatGPT的协助下,写
长
文
、撰写网络
文
章、改写
文
章、总结
文
章或创作爆款推广
文
案的指令是什么?
ChatGPT
写作
开源
研究人员开源中
文
文
本
嵌入模型,填补中
文
向量
文
本
检索领域的空白
一直以来,基于向量的
文
本
检索是重要的研究议题之一。
GPT
PDFTriage:面向
长
篇结构化
文
档的问答
大型语言模型(LLM)在
文
档问答(QA)中存在一个问题,那就是当
文
档无法适应LLM的小范围上下
文
长
度时。
大语言模型
PDF
文档
RAG
无限
长
的上下
文
,也干不掉的RAG
概述
本
文
《Lost in the Middle: How Language Models Use Long Contexts》由Nelson F.
RAG
大模型
零一万物
零一万物API开放平台出场!通用Chat多模态通通开放,还有200K超
长
上下
文
版
本
§ Yi-34B-Chat-200K:200K上下
文
,多
文
档阅读理解、超
长
知识库构建小能手。
零一万物
YI
李开复
工具
AI
文
本
转语音工具(TTS):MeloTTS
今天给大家介绍一个效果不错的开源
文
本
转语音工具:MeloTTS MeloTTS是一个可以把
文
字转换成声音的工具,它支持英语、西班牙语、法语、中
文
、日语和韩语等多种语言。
MeloTTS
语音工具
RAG
图解检索增强式生成(RAG)技术 | 万字
长
文
在
本
文
的方案中,绿色元素代表我们将要深入讨论的核心 RAG 技术,蓝色元素则表示
文
本
。
检索增强式生成
RAG
语音
Whisper对于中
文
语音识别与转写中
文
文
本
优化的实践(Python3.10)
中
文
文
本
标注优化 Whisper经常被人诟病的一点是对中
文
语音转写后标点符号的支持不够完备。
Whisper
语音优化
万字
长
文
-大语言模型指令调优综述
长
文
警告!
大语言模型
ChatGLM
【万字
长
文
】LLaMA, ChatGLM, BLOOM的参数高效微调实践
在训练目标上,ChatGLM-6B的训练任务是自回归
文
本
填空。
大模型
微调
训练
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100