首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· ComfyUI官方使用手册【官网直译+关键补充】
· 一招让你的 AI 图像更惊艳!DALL-E 3 自定义指令魔法
· 6个最佳开源TTS引擎
· 【语音领域-又双叒更新】阿里开源FunAudioLLM: 2大核心模型、5大亮点功能!效果炸裂!手把手带你理论+实战部署推理!
· prompt中的分隔符号的正确使用方法
· AI换脸工具:facefusion使用心得
· 一人搞定30万商品分类:AI落地实践故事!
· 使用python调用comfyui-api,实现出图自由
· DALL-E 3 不只是文生图!10 个案例颠覆认知
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
全球最大开源prompt社区即将开放中文版
我们也了解到FlowGPT即将推出一些平台更新,包括: 一键将提示应用到聊天页面的能力 与
GPT
-4和Claude LLM的集成 更新的提示详情
开源模型
开源
省钱!微软开源框架LLMLingua + LlamaIndex实现提示词压缩
llama_index.callbacks import CallbackManager, TokenCountingHandler import tiktoken OPENAI_MODEL_NAME = "
gpt
LLMLingua
LlamaIndex
开源框架
LLM
2023年LLM如何入门?请看这篇综述!
PLM的出现极大地促进了NLP的发展,如BERT、
GPT
等模型就是PLM的代表。
大模型
RAG
RAG检索增强技术在知识库智能检索场景下的应用实践
这个编码模型可以是预训练的语言模型,例如BERT、
GPT
等。
知识库
RAG检索增强
工具
使用这个工具后,我将 RAG 的准确性和召回率都提高了两倍!
instructor.patch() query = openai.ChatCompletion.create( model="
gpt
RAG
大语言模型
Prompt
爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
next=%2Fg%2Fg-jPwNeWSSZ-hong-hong-mo-ni-qi-
gpt
hong-hong-mo-ni-qi-
gpt
可以看出
提示词
prompt
ChatGPT
如何使用ChatGPT一天搞定论文初稿
在
GPT
刚刚问世的时候,因为它的胡编特性导致在学术写作场景中备受诟病,但是随着现在整个生态的发展,借助插件等知识增强手段已经很大程度上解决幻觉问题,基本上确保了每个引用都有出处  
ChatGPT
写作
LLM
自己电脑上跑大语言模型(LLM)要多少内存?
NVIDIA GTX
GPT
主要用的就是显存。
大语言模型
运行
大模型
中文版开源Llama 2同时有了语言、多模态大模型,完全可商用
针对目前几乎没有公开语音多模态指令数据这一问题,基于公开数据集 WizardLM [9]、ShareGPT [10]、
GPT
-4-LLM [11] 构造语音 - 文本多模态指令数据集 LLaSM-Audio-Instructions
开源模型
开源
构建开源多模态RAG系统
大型语言模型,如
GPT
-3,擅长生成类似人类的语言,但在提供最新或特定领域的信息方面存在限制。
RAG
大模型
LLM
4种通过LLM进行文本知识图谱的构建方法对比介绍
对于
gpt
-3.5-turbo在创建新属性时没有问题。
知识图谱
大模型
RAG
RAG应用中数据处理过程需要注意的事项
将这些不同的数据转换为上下文相关的块,以使
GPT
的上下文窗口层更加复杂。
RAG
大模型
大模型
超越巨头:Zephyr-7B领跑7B级大模型竞赛,开源且笔记本可运行
而在AlpacaEval测试中,Zephyr的胜率高达90.6%,其在高级RAG任务上的表现与
GPT
-3.5和Claude 2相当。
大语言模型
开源模型
微调
一文讲明白什么是预训练、微调和上下文学习
比如说在包含数百万本书、文章和网站的数据集上预训练像
GPT
-3 这样的语言模型。
大模型
训练
微软
微软、OpenAI大佬暗示LLM应用开发范式迁移:从Prompt Engineering到Flow Engineering
它的核心思路是,利用多次生成测试反馈迭代的方式替代原有精心构造Prompt一次性生成的方式,最终在验证集上,
GPT
-4的准确率(pass@5)从使用单个精心设计的Prompt的19%提高到使用
LLM
范式迁移
<
...
15
16
17
18
19
20
21
22
23
24
...
>
1
2
4
5
6
7
8
9
100