首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· Stable Diffusion|提示词高阶用法(二)双人同图
· 复旦开源中文医疗大模型,基于百川微调,模型和数据集都公开
· Suno音乐新手指南(手把手完整版教程)
· 必看!阿里通义千问完整技术报告
· clone-voice:一键克隆声音,开源AI技术让声音创作更便捷、更个性化
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· OmniVision - 968M:小巧精悍的视觉语言模型,释放多模态边缘计算强大潜能
· MCP服务介绍及应用场景报告-来自Manus
· 理解 o3 及其技术分析
· 腾讯悄悄开源混元版「Sora」,这就是开源领域的No.1。
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
从零开始了解AI大模型 - 技术篇:万字深度好文人话说大模型技术
二、
GPT
自回归大模型的演进和技术 2.1
GPT
-1:筑基Decoder-only自回归架构,生成式预训练语言模型
GPT
的奠基者
GPT
-1是
GPT
系列的第一个模型,它采用了
大模型
OpenAI
OpenAI 上线新功能力捧 RAG,开发者真的不需要向量数据库了?
的确,OpenAI 在现场频频放出大招,宣布推出
GPT
-4 Turbo 模型、全新 Assistants API 和一系列增强功能。
RAG
检索
向量库
60.2K Star!别再熬夜写样式了!Screenshot-to-Code:截个图,代码全搞定!!
· •
GPT
-4o:也很强,代码生成速度快效果也棒。
Screenshot-to-Code
代码
大模型
大模型高效微调:🤗 PEFT 使用案例
Prompt Tuning IA3
GPT
大模型
ChatGLM
【本地部署】智谱chatglm3-6B第三代!性能如何?支持调用tools+Agent+代码执行!小白教程!附网盘下载!
瞄向
GPT
-4V的技术升级: 瞄向
GPT
-4V,ChatGLM3 本次实现了若干全新功能的迭代升级,包括: 多模态理解能力的CogVLM,看图识语义,在10余个国际标准图文评测数据集上取得SOTA;
chatglm
智普
大模型
开源
玩一玩阿里通义千问开源版,Win11 RTX3060本地安装记录!
nbsp; 长序列测评(南玻王) 工具使用能力测评 全方位碾压同类70亿参数模型,在即将开源的、用于评估工具使用能力的自建评测基准上,居然K·O了
GPT
通义千问
开源
清华&面壁开源新一代主动Agent交互范式!让AI从被命令到主动帮助
环境模拟器的主要功能为事件生成与状态维护:通过使用
GPT
-4o 从人类注释员处收集的种子事件以生成一个需要交互的具体环境,同时生成所有相关实体以让智能体执行任务。
Agent
大模型
Transformer
保姆级教程:图解Transformer
Transformer 近两年非常火爆,内容也很多,要想讲清楚,还涉及一些基于该结构的预训练模型,例如著名的 BERT,
GPT
,以及刚出的 DALL·E 等。
人工智能
Stable Diffusion
Stable Diffusion教程:提示词
特别是 SD 1.5 的模型自由发挥时出图的质量往往比 SD XL 有明显的差距,就像
GPT
-3.5 回答问题的质量比
GPT
-4 要差一些。
提示词
SD
绘画
大模型
【大模型微调】 Llama 2 :对话模型的全过程微调
nbsp;Llama 模型: 拥有 700 亿参数的 Llama 2 模型在 MMLU 和 BXH 基准测试上的结果相较于 650 亿参数的 Llama 模型分别提升了大约
5
%
大模型
ChatGPT
ChatGPT提示词万能模板:BRTR原则,让ChatGPT完美理解你的需求
温馨提示:
GPT
-3.5和
GPT
-4.0在理解和创作能力上有所不同,如果有更高的要求,推荐使用
GPT
-4.0。
ChatGPT
大模型
大模型
九问中国大模型掌门人,万字长文详解大模型进度趋势
OpenAI 正在做的
GPT
-
5
,号称把十万台 GPU 连在一起,预测 Next Frame(下一帧),如果得以实现,大模型的技术会进一步突破。
大模型
详解
大模型
国内AI大模型已近80个,哪个最有前途?
目前已经达到
GPT
-3.5 和
GPT
-4 之间的水平,部分中文能力已经达到
GPT
-4。
大模型
LLM
从零开始用LangChain、Pinecone和LLMs搭建你自己的文档问答系统
二、为什么语义搜索+
GPT
问答比微调
GPT
更好?
知识库
langchain
大模型
领域大模型LLM训练Trick
主要与领域数据量有关系,当数据量没有那么多时,一般领域数据与通用数据的比例在1:
5
到1:10之间是比较合适的。
垂直
训练
大模型
<
...
14
15
16
17
18
19
20
21
22
23
...
>
1
2
4
5
6
7
8
9
100