首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 第一性原理以及第一性原理是怎么帮马斯克成为首富的
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 从第一性原理看大模型Agent技术
· ComfyUI官方使用手册【官网直译+关键补充】
· 芯片拼接技术:英伟达新核弹,站在苹果的肩膀上
· AI声音克隆 | 最全最简教程(权威版)
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· 生成式AI与大语言模型的区别
· 自己电脑上跑大语言模型(LLM)要多少内存?
· 深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
构建开源多模态RAG系统
像 Image2Text:这部分重点在于使用基于
transformer
的架构来改进复杂图像的字幕生成。
RAG
大模型
大模型
大模型应用发展的方向|代理 Agent 的兴起及其未来(上)
提高
Transformer
的长度限制、通过总结记忆来提高效率、使用向量或数据结构来压缩记忆。
大模型
大模型
详解大模型RLHF过程(配代码解读)
模型并没有在每个action之后得到新的state(感谢评论区大佬的点拨,对于answer的第二个词,可以把prompt+answer的一个词当作新的state,而不只是把prompt当作state,状态转移蕴含在
transformer
训练
ChatGPT
10个值得收藏的ChatGPT辅助编程技巧
6、对输入保密代码保持警惕 鉴于 ChatGPT 使用的是 Large Language Model (LLM),即 Generative Pretrained
Transformer
,其中“生成”是指模型生成新内容的能力
编程
提示词
chatgpt
大模型
国产编程大模型CodeGeex
CodeGeeX含有40个
transformer
层,每层自注意力块的隐藏层维数为5120,前馈层维数为20480,总参数量为130亿。
编程
开源
摆脱 OpenAI 依赖,8 分钟教你用开源生态构建全栈 AI 应用
Llama 2-Chat-70B:Llama 2系列模型是一组GPT-like (也被称作自回归
Transformer
开源模型
大模型
llm-action:让天下没有难学的大模型
配套代码 HuggingFace PEFT LLM分布式训练并行技术 近年来,随着
Transformer
大模型
LLM
大模型
中国电信开源星辰AI大模型:央企中首个完成LLM研发和开源的选手诞生
在模型训练上,为了保证稳定性,团队又使用了Embedding LayerNorm算法,在嵌入层添加额外的RMSNorm层,并在每个
Transformer
子层前加入RMSNorm层。
开源大模型
电信
大语言模型的拐杖——RLHF基于人类反馈的强化学习
此外,该库易于定制,允许基于任何任意用户指定的奖励函数来训练任何编码器-解码器或基于encoder
transformer
的LM。
大模型
训练
开源
爆火!腾讯开源PhotoMaker:高效地定制化生成任意风格的逼真人类照片!
由于用于训练原始CLIP图像编码器的数据主要由自然图像组成,为了更好地使模型从掩码图像中提取id相关的嵌入,在训练PhotoMaker时对图像编码器中的部分
transformer
层进行了微调。
PhotoMaker
文生图
大模型
深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型
8x7B 模型只是在
Transformer
的前馈 (FeedForward) 块数量上增加了八倍,并且共享了注意力机制 (attention) 的参数,使得总参数数维持在 467 亿。
开源模型
Mixtral
8x7B
AI+音乐|对话 Suno CEO:破圈的音乐生成产品是如何诞生的?
我们一开始就决定要走 foundation model 的路线,因为从长远来看,这是最有前途的方向,虽然当时业界几乎没有用
transformer
做音频的先例。
suno
音乐
被高估的Pika,被低估的多模态AI
“如果未来
Transformer
或者另外一套算法能够准确预测下一帧,那么视频模型就出来,就有机会解锁下一个抖音级别的内容平台;如果能准确预测下一串动作序列,那么具身智能模型就出来了
大模型
多模态
LLM
最详细的文本分块(Chunking)方法——可以直接影响基于LLM应用效果
例如,sentence-
transformer
~[1]~模型在单个句子上工作得很好,但像text- embedt-ada -002~[2]~这样的模型在包含256或512个tokens的块上表现得更好。
RAG
大模型
一位芯片投资人的十年复盘:谁是中国的英伟达|AI光年
nbsp; 前阵子美国 AI 芯片公司 Groq发布了新的芯片,国内很多AI芯片公司也已经在规划设计,如何更好的支持
transformer
AI光年
芯片投资
<
...
4
5
6
7
8
9
10
11
12
13
>
1
2
4
5
6
7
8
9
100