首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 国内外开源大语言模型一览表
· AI必备Prompt技巧《提问的艺术——让AI导出高质量答案》
· 硬核解读Stable Diffusion(系列一)
· 掌握这10个AI 工具用1小时完成别人1周的工作
· 7.1k Star!RAGFlow:最新开源OCR+深度文档理解的RAG引擎、大海捞针测试、降低幻觉、服务化API集成进业务!
· 如何下载及使用通义千问7B开源大模型
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· 使用python调用comfyui-api,实现出图自由
· Stable Diffusion生成美女正向词和反向词示例
· 比 Roop 和 Reactor 更像!IP Adapter 新模型为任何人做写真
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
模型结构上,与
GPT
相同,LLaMA采用了causal decoder-only的transformer模型结构。
大模型
大模型
国外报告90%的AI类产品公司已经实现盈利,而国内大模型和AIGC的访谈说太卷了
名的产品从模型的使用上可以分为三种: 1.训练自己的专有模型, 2.微调现有模型, 3.在现有模型之上构建消费者 UI(例如,“
GPT
大模型
ChatGPT
清华智能体「XAgent」比ChatGPT4.0还好用!
但在各项基准测试下,XAgent表现都完全优于AutoGPT、
GPT
-4。
ChatGPT
智能体
Agent
大模型
宁德核电推出全球参数量最大的核工业大模型|InfoQ 独家
据了解,「锦书」在内部被称为“全民
GPT
”项目,自 2023 年 5 月发起,旨在探索利用 AI 大模型解决核电行业面临的各种挑战,如知识管理不足、低脑力劳动过多、安全分析能力有待增强等。
宁德核电
大模型
大模型
深入探秘:百川7B大模型的训练代码解析,揭秘巨无霸语言模型背后的奥秘
并处理得到最后一层的输出 四:DecoderLayer类 下面看一下每一层的decoder的结构是什么: 这个结构可以参考经典的tansformer decoder结构,这个也是
GPT
大模型
大模型
领域大模型LLM训练Trick
不过
GPT
系列大模型的预训练和微调,从实现方式上来讲是没有什么差别的,都是用decoder only的语言模型进行训练并更新参数,如果样本数量比较少,没有大量的篇章文档数据,个人认为只进行微调也能够注入知识
垂直
训练
大模型
Stable Diffusion
AI绘画巅峰对决:Stable Diffusion 3与DALL·E 3原理深度比较
DALL-E 3 用Dataset Recaptioning技术,重新生成图像标题,这些训练语料都是由
GPT
-4 Vision生成的。
Stable
Diffusion
DALL·E
baichuan2 有什么好的 深挖论文中涉及的知识点
语言模型的规模已经从数百万参数(如 ELMo、
GPT
-1)增长到了数十亿甚至数千亿参数,例如
GPT
-3、PaLM 和 Switch Transformers。
大模型
ChatGPT
ChatGPT写论文最强指令
仅需三步)】 电脑端 1、浏览器访问天意云官网:https://cloud.dftianyi.com 2、注册并登录 3、登录后,点击右上角控制台,左侧点击ChatGPT,点击订阅通道(天意云
GPT
ChatGPT
指令
开源
微软最新模型Phi-3 Mini开源登场!小模型,大未来!
它的小巧之处让它能够轻松地在各种本地设备上部署和运行,甚至可以作为离线聊天机器人使用,而且还能提供与
GPT
-3.5类似的性能水平。
Phi-3
Mini
开源模型
微软
大模型
最新大模型面经+感受,4家大厂offer!
了解bert和
gpt
网络结构的细节及其差异吗?
大模型
面试
谷歌
长窗口大战要终结了?谷歌魔改Transformer,推出了“无限注意力”
Anthropic 的 Claude 3 支持最多 20万token,而 OpenAI 的
GPT
-4 的上下文窗口为 12.8万个token,直到Gemini 1.5达到百万token。
大模型
上下文
大模型
如何构建基于大模型的App
例如,当需要重要推理任务时,可以使用
GPT
-4,然后使用
GPT
-3进行基本文本操作或完成。
构建
大模型App
Sora
解读OpenAI Sora文生视频技术原理
自然语言理解,采用DALLE3 生成视频文本描述,用
GPT
丰富文本prompts ,作为合成数据训练Sora, 架起了
GPT
与 Sora语言空间的更精确关联,等于在Token与Patch
sora
Prompt
结构化Prompt必备基础:5分钟学会Markdown语法,实现提示词创作自由!
这些基本的语法已足以我们在创建结构化Prompt中使用了,也可以用于日常和
GPT
的对话中,以便
GPT
更好的识别你的意图。
Prompt
提示词
Markdown
<
...
18
19
20
21
22
23
24
25
26
27
...
>
1
2
4
5
6
7
8
9
100