首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 本地部署Manus+DeepSeek保姆级教程!
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· Agent : 一文读懂LLM Agent架构,详解Profile,Memory,Planning,Action模块作用
· 秘塔AI搜索
· 构建开源多模态RAG系统
· 垂直领域大模型的思考
· 硬核解读Stable Diffusion(系列一)
· Roop升级版FaceFusion换脸AI技术使用以及部署教程
· Stable Diffusion使用Roop插件一键换脸教程
· Stable Diffusion|提示词高阶用法(二)双人同图
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
被高估的Pika,被低估的多模态AI
从
GPT
-4V 的“惊艳亮相”,到 AI 视频生成工具 Pika 1.0 的“火爆出圈”,再到谷歌 Gemini 的“全面领先”,多模态 AI 都是其中的关键词。
大模型
多模态
开源
全球最大开源prompt社区即将开放中文版
我们也了解到FlowGPT即将推出一些平台更新,包括: 一键将提示应用到聊天页面的能力 与
GPT
-4和Claude LLM的集成 更新的提示详情
开源模型
人工智能
2023年人工智能行业总结
九月GPT4V发布,让
GPT
有了眼睛,可以看图了。
人工智能
AGI
思考总结
大模型
什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
答:如果我现在做一个sota的中文
GPT
大模型,会分2步走:1.
大模型
RAG
LlamaIndex的QueryPipeline在实现RAG应用后,Agent应用也可以实现了(附开发示例)
react_prompt": react_prompt_component, "llm": OpenAI(model="
gpt
Agent
QueryPipeline
大模型
人工智能
人工智能的应用范式呼之欲出
目前已经看到的行业实践包括:通过在Alpaca-LoRA中加入中文语料的训练获得中文能力、通过ChatGLM和中美金融数据LoRA构建的FinGPT、基于中文医疗数据LoRA和Ziya-LLaMa-13B的Medical-
GPT
大模型
Prompt
掌握Prompt的6心法
以下是一个常见的结构化Prompt模板示例: · # Role 指定角色 ## Goals 描述Prompt目标,让
GPT
聚焦起来 ## Background: 你希望
prompt
写作
LLM
2023年LLM如何入门?请看这篇综述!
PLM的出现极大地促进了NLP的发展,如BERT、
GPT
等模型就是PLM的代表。
大模型
工具
使用这个工具后,我将 RAG 的准确性和召回率都提高了两倍!
instructor.patch() query = openai.ChatCompletion.create( model="
gpt
RAG
大语言模型
Prompt
爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
next=%2Fg%2Fg-jPwNeWSSZ-hong-hong-mo-ni-qi-
gpt
hong-hong-mo-ni-qi-
gpt
可以看出
提示词
prompt
开源
构建开源多模态RAG系统
大型语言模型,如
GPT
-3,擅长生成类似人类的语言,但在提供最新或特定领域的信息方面存在限制。
RAG
大模型
LLM
4种通过LLM进行文本知识图谱的构建方法对比介绍
对于
gpt
-3.5-turbo在创建新属性时没有问题。
知识图谱
大模型
RAG
RAG应用中数据处理过程需要注意的事项
将这些不同的数据转换为上下文相关的块,以使
GPT
的上下文窗口层更加复杂。
RAG
大模型
大模型
超越巨头:Zephyr-7B领跑7B级大模型竞赛,开源且笔记本可运行
而在AlpacaEval测试中,Zephyr的胜率高达90.6%,其在高级RAG任务上的表现与
GPT
-3.5和Claude 2相当。
大语言模型
开源模型
微调
一文讲明白什么是预训练、微调和上下文学习
比如说在包含数百万本书、文章和网站的数据集上预训练像
GPT
-3 这样的语言模型。
大模型
训练
<
...
16
17
18
19
20
21
22
23
24
25
...
>
1
2
4
5
6
7
8
9
100