首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 国内外开源大语言模型一览表
· 盘点数据安全合规方向的热门证书【快来了解一下】
· 一文汇总市面上所有prompts提示词框架
· 硬核解读Stable Diffusion(系列一)
· 火山写作:一款助力写作能力提升的AI助手
· 掌握这10个AI 工具用1小时完成别人1周的工作
· 最强国产开源多模态大模型MiniCPM-V:可识别图片、视频,还可在端侧部署
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· MCP服务介绍及应用场景报告-来自Manus
· whisper-live:OpenAI Whisper模型的近实时实现
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
微软最新模型Phi-3 Mini开源登场!小模型,大未来!!
它的小巧之处让它能够轻松地在各种本地设备上部署和运行,甚至可以作为离线聊天机器人使用,而且还能提供与
GPT
-3.5类似的性能水平。
Phi-3
Mini
人工智能
RAG
RAG检索增强技术在知识库智能检索场景下的应用实践
这个编码模型可以是预训练的语言模型,例如BERT、
GPT
等。
知识库
RAG检索增强
9个范例带你入门langchain
langchain.llms import OpenAIfrom langchain import PromptTemplate llm = OpenAI(temperature=0, model_name = '
gpt
大模型
大模型
大模型应用的10种架构模式
更大的模型(如
GPT
-4)负责理解上下文,并将其分解为特定的任务或信息请求,这些任务或信息请求被传递给更小的代理。
大模型
架构
ChatGPT
如何使用ChatGPT一天搞定论文初稿
在
GPT
刚刚问世的时候,因为它的胡编特性导致在学术写作场景中备受诟病,但是随着现在整个生态的发展,借助插件等知识增强手段已经很大程度上解决幻觉问题,基本上确保了每个引用都有出处  
ChatGPT
写作
LLM
自己电脑上跑大语言模型(LLM)要多少内存?
NVIDIA GTX
GPT
主要用的就是显存。
大语言模型
运行
大模型
中文版开源Llama 2同时有了语言、多模态大模型,完全可商用
针对目前几乎没有公开语音多模态指令数据这一问题,基于公开数据集 WizardLM [9]、ShareGPT [10]、
GPT
-4-LLM [11] 构造语音 - 文本多模态指令数据集 LLaSM-Audio-Instructions
开源模型
开源
Chinese-LLM开源中文大语言模型合集
地址:https://github.com/FlagAI-Open/FlagAI/tree/master/examples/Aquila 简介:由智源研究院发布,Aquila语言大模型在技术上继承了
GPT
大模型
中文
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
模型结构上,与
GPT
相同,LLaMA采用了causal decoder-only的transformer模型结构。
大模型
大模型
国外报告90%的AI类产品公司已经实现盈利,而国内大模型和AIGC的访谈说太卷了
名的产品从模型的使用上可以分为三种: 1.训练自己的专有模型, 2.微调现有模型, 3.在现有模型之上构建消费者 UI(例如,“
GPT
大模型
ChatGPT
清华智能体「XAgent」比ChatGPT4.0还好用!
但在各项基准测试下,XAgent表现都完全优于AutoGPT、
GPT
-4。
ChatGPT
智能体
Agent
大模型
宁德核电推出全球参数量最大的核工业大模型|InfoQ 独家
据了解,「锦书」在内部被称为“全民
GPT
”项目,自 2023 年 5 月发起,旨在探索利用 AI 大模型解决核电行业面临的各种挑战,如知识管理不足、低脑力劳动过多、安全分析能力有待增强等。
宁德核电
大模型
大模型
深入探秘:百川7B大模型的训练代码解析,揭秘巨无霸语言模型背后的奥秘
并处理得到最后一层的输出 四:DecoderLayer类 下面看一下每一层的decoder的结构是什么: 这个结构可以参考经典的tansformer decoder结构,这个也是
GPT
大模型
大模型
领域大模型LLM训练Trick
不过
GPT
系列大模型的预训练和微调,从实现方式上来讲是没有什么差别的,都是用decoder only的语言模型进行训练并更新参数,如果样本数量比较少,没有大量的篇章文档数据,个人认为只进行微调也能够注入知识
垂直
训练
大模型
Stable Diffusion
AI绘画巅峰对决:Stable Diffusion 3与DALL·E 3原理深度比较
DALL-E 3 用Dataset Recaptioning技术,重新生成图像标题,这些训练语料都是由
GPT
-4 Vision生成的。
Stable
Diffusion
DALL·E
<
...
18
19
20
21
22
23
24
25
26
27
...
>
1
2
4
5
6
7
8
9
100