首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 第一性原理以及第一性原理是怎么帮马斯克成为首富的
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 从第一性原理看大模型Agent技术
· ComfyUI官方使用手册【官网直译+关键补充】
· 芯片拼接技术:英伟达新核弹,站在苹果的肩膀上
· AI声音克隆 | 最全最简教程(权威版)
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· 生成式AI与大语言模型的区别
· 自己电脑上跑大语言模型(LLM)要多少内存?
· 深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
Llama 3突然来袭!开源社区再次沸腾:GPT-4级别模型可以自由访问的时代到来
架构层面,Llama 3选择了经典的仅解码(decoder-only)式
Transformer
架构,采用包含128K token词汇表的分词器。
meta
llama3
大模型
如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
在许多深度学习模型中,尤其是
Transformer
类模型,层与层之间的操作往往需要在vRAM中存储中间计算结果,这些结果可能包括激活值、权重等。
大模型
ChatGPT
公司如何使用ChatGPT进行内容营销?
要掌握ChatGPT的功能,必须深入研究驱动其内容生成能力的架构框架和算法: 转化器架构和算法:ChatGPT的基础是
Transformer
架构,它采用了自我关注机制来处理和生成文本。
大模型
RAG
LangChain: LLM 应用聚焦的两大方向,RAG 和 Agents
当时的情况是 BERT 刚刚出来,
Transformer
的魔法还没有蔓延到 CV 领域,所以这哥们提的问题相当于需要单独拎出来几个模型,分别把图像识别、意图识别、用于模拟用户行为的代码生成等等单独做一遍
大模型
大模型
总结!大模型微调(Tuning)的常见方法
Full-finetuning 更新所有参数的方式不同,该方法是在输入 token 之前构造一段任务相关的 virtual tokens 作为 Prefix,然后训练的时候只更新 Prefix 部分的参数,而
Transformer
微调
大模型
开源
[中文开源震撼首发]33B QLoRA大语言模型Anima真的太强大了!QLoRA技术可能是AI转折点!
基于
Transformer
的语言模型训练成本之所以昂贵,主要是因为最优化的后向梯度下降过程中的内存需要是模型参数量的最多16倍以上!
开源模型
OpenAI
【语音识别】OpenAI语音力作Whisper
三、模型 模型结构是encoder-decoder
transformer
,中间attention模块前后有残差链接,encoder用的是self attention,decoder用的是
语音转文字
whisper
Agent
AI进化的新纪元:AI AIgents时代(1/9)——什么是Agent?
GPT = generative pre-trained
transformer
,也就是生成式预训练转换器,这是驱动大型语言模型(LLM)如 ChatGPT 的核心机器学习模型架构。
大模型
Fastwhisper + Pyannote 实现 ASR + 说话者识别
whisper多一点 一、faster-whisper简单介绍 faster-whisper是使用CTranslate2对OpenAI的Whisper模型的重新实现,CTranslate2是一个用于
Transformer
faster-whisper
语者识别
ASR
RAG
你真的会写 Prompt ? 剖析 RAG 应用中的指代消解
GPT-3 (Generative Pre-trained
Transformer
3) is a state-of-the-art
Prompt
大语言模型
RAG
大模型
一个产品经理的大模型观察、反思与预测
Representations from Transformers / 双向编码器表征模型) 2018年:OpenAI GPT(Generative Pre-trained
Transformer
工作
RAG
RAG与Long-Context之争—没必要争
RAG是靠检索系统来进行相关内容过滤,一般采用ES、向量匹配等方法,可以理解计算量较小,也就是文本之间交互较少;而Long-Context相当于用户Query与文本交互时,利用了整个大模型参数,即通过
Transformer
RAG
Long-Context
大模型
大模型
AI大模型LLM可以帮助企业做什么?
2020 年,OpenAI 在Google 研究团队提出的技术架构
Transformer
和多头注意力机制的基础上,推出了 GPT-3 模型,其在文本生成任务上的能力令人印象深刻
大模型
baichuan2 有什么好的 深挖论文中涉及的知识点
在下面的章节中,将详细介绍对 vanilla
Transformer
架构和训练方法所做的详细修改。
大模型
如何使用 Megatron-LM 训练语言模型
Megatron-LM 4 是研究人员用于预训练大型
Transformer
模型的另一个流行工具,它是 NVIDIA 应用深度学习研究团队开发的一个强大框架。
开源模型
<
...
4
5
6
7
8
9
10
11
12
13
>
1
2
4
5
6
7
8
9
100