首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 第一性原理以及第一性原理是怎么帮马斯克成为首富的
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· AI声音克隆 | 最全最简教程(权威版)
· ComfyUI官方使用手册【官网直译+关键补充】
· Coze多智能体(Multi-Agents)模式体验!
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· Stable Diffusion 30分钟打造AI 写真照片生成器|海马体照相馆这次真的要木得了
· 从第一性原理看大模型Agent技术
· 精通百种语言的翻译AI来了!Meta推出,免费、开源!
· 6个最佳开源TTS引擎
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
大模型微调方法总结
对于 table-to-text 任务,本文使用自回归语言模型
GPT
-2,输入为 source( x )和 target( y )的拼接,模型自回归地生成: 对于摘要任务
开源模型
大模型
性能超出预期!神秘的国产大模型 Kimi 开放 API
我用一段 2200 余字的中文提示词,测试了 Moonshot 和另外两个国外标杆,它们的 token 计数分别如下: ·
GPT
-3.5:2922(1 token ≈
Kimi
Chat
大模型
API
大模型
金融行业的开源AI大模型
MetaTrader,量化交易插件 · 介绍:Auto-
GPT
-MetaTrader-Plugin
开源
大模型
大模型
大模型下半场,关于Agent的几个疑问
因为Agent的成败将是决定这一场
GPT
革命是否是新一代工业革命的关键。
大模型
RAG
图解检索增强式生成(RAG)技术 | 万字长文
response = get_completion(instruction, prompt, model="
gpt
检索增强式生成
RAG
大模型
GitHub狂飙3万star的LLM公开资料 - 大模型入门教程
GPT
-2 的损失函数值可视化:文章,colab 3.
LLM
大模型
GitHub
PDFTriage:面向长篇结构化文档的问答
在我们所有的实验中,我们都使用
gpt
-35-turbo-0613模型。
大语言模型
PDF
文档
ChatGPT
巧用这13个原则!创作ChatGPT提示词Prompt时效率提高10倍!
5 - 明确告诉
GPT
他的任务是什么,而不是暗示他他要为你做什么。
prompt
提示词
最顶尖的大语言模型人才,只关心这10个挑战
如今,
GPT
-3.5使用造成的延迟/成本分析又有了新的变化。
大语言模型
开源
最新最全的开源中文大语言模型列表
数据集通过调用
gpt
-3.5-turbo API扩展真实的心理互助 QA为多轮的心理健康支持多轮对话,提高了通用语言大模型在心理健康支持领域的表现,更加符合在长程多轮对话的应用场景。
大模型
QWen1.5: 卓越模型之路
评估结果如下: 尽管落后于
GPT
-4-Turbo,但最大的 Qwen1.5 模型 Qwen1.5-72B-Chat 在 MT-Bench 和 Alpaca-Eval v2 上都表现出不俗的效果,
Qwen1.5
开源模型
提示词
【中华民族史上最强智库】完整提示词
intelligence, proficient in both conspiracy and plotting ## How to obtain information - Based on
GPT
提示词
大模型
Prompt
今天分享一个官方的高级的做数据分析的prompt提示词
用过
GPT
Plus账号的朋友都知道,在前段时间,有个自带的功能叫“Code Interpreter”,后面改名叫“Data Analysis ”,现在整到一个里面去了。
prompt
提示词
开源
国内外开源大语言模型一览表
本文从模型结构上分析 Falcon、LLaMA 与传统
GPT
的异同,代码实现细节。
大模型
没有思考过 Embedding,不足以谈 AI
接下来我们可以讨论
GPT
了。
开源模型
<
...
9
10
11
12
13
14
15
16
17
18
...
>
1
2
4
5
6
7
8
9
100