首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
· 神奇的 OuteTTS - 0.1 - 350M:用几秒钟音频克隆声音的黑科技!
· 理解 o3 及其技术分析
· 深度体验3天后,我把腾讯这款copilot锁进了程序坞
· 使用知识图谱提高RAG的能力,减少大模型幻觉
· AI写作:一步到位,如何用 AI 生成整篇文章?做自媒体必看!
· 掌握这10个AI 工具用1小时完成别人1周的工作
· Stable Diffusion 30种采样器全解!
· 基于 OpenAI Whisper 模型的实时语音转文字工具
· 弱智吧竟成最佳中文AI训练数据?!中科院等:8项测试第一,远超知乎豆瓣小红书
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
构建开源多模态RAG系统
像 Image2Text:这部分重点在于使用基于
transformer
的架构来改进复杂图像的字幕生成。
RAG
大模型
LLM
2023年LLM如何入门?请看这篇综述!
A:确实,那近几年的话,研究人员提出了预训练语言模型PLM,通过对大规模语料库进行
Transformer
模型的预训练,展现了解决各种NLP任务的强大能力。
大模型
大模型
大模型应用发展的方向|代理 Agent 的兴起及其未来(上)
提高
Transformer
的长度限制、通过总结记忆来提高效率、使用向量或数据结构来压缩记忆。
大模型
大模型
详解大模型RLHF过程(配代码解读)
模型并没有在每个action之后得到新的state(感谢评论区大佬的点拨,对于answer的第二个词,可以把prompt+answer的一个词当作新的state,而不只是把prompt当作state,状态转移蕴含在
transformer
训练
ChatGPT
10个值得收藏的ChatGPT辅助编程技巧
6、对输入保密代码保持警惕 鉴于 ChatGPT 使用的是 Large Language Model (LLM),即 Generative Pretrained
Transformer
,其中“生成”是指模型生成新内容的能力
编程
提示词
chatgpt
大模型
国产编程大模型CodeGeex
CodeGeeX含有40个
transformer
层,每层自注意力块的隐藏层维数为5120,前馈层维数为20480,总参数量为130亿。
编程
开源
摆脱 OpenAI 依赖,8 分钟教你用开源生态构建全栈 AI 应用
Llama 2-Chat-70B:Llama 2系列模型是一组GPT-like (也被称作自回归
Transformer
开源模型
大模型
llm-action:让天下没有难学的大模型
配套代码 HuggingFace PEFT LLM分布式训练并行技术 近年来,随着
Transformer
大模型
LLM
大模型
中国电信开源星辰AI大模型:央企中首个完成LLM研发和开源的选手诞生
在模型训练上,为了保证稳定性,团队又使用了Embedding LayerNorm算法,在嵌入层添加额外的RMSNorm层,并在每个
Transformer
子层前加入RMSNorm层。
开源大模型
电信
开源
爆火!腾讯开源PhotoMaker:高效地定制化生成任意风格的逼真人类照片!
由于用于训练原始CLIP图像编码器的数据主要由自然图像组成,为了更好地使模型从掩码图像中提取id相关的嵌入,在训练PhotoMaker时对图像编码器中的部分
transformer
层进行了微调。
PhotoMaker
文生图
大语言模型的拐杖——RLHF基于人类反馈的强化学习
此外,该库易于定制,允许基于任何任意用户指定的奖励函数来训练任何编码器-解码器或基于encoder
transformer
的LM。
大模型
训练
AI+音乐|对话 Suno CEO:破圈的音乐生成产品是如何诞生的?
我们一开始就决定要走 foundation model 的路线,因为从长远来看,这是最有前途的方向,虽然当时业界几乎没有用
transformer
做音频的先例。
suno
音乐
被高估的Pika,被低估的多模态AI
“如果未来
Transformer
或者另外一套算法能够准确预测下一帧,那么视频模型就出来,就有机会解锁下一个抖音级别的内容平台;如果能准确预测下一串动作序列,那么具身智能模型就出来了
大模型
多模态
LLM
最详细的文本分块(Chunking)方法——可以直接影响基于LLM应用效果
例如,sentence-
transformer
~[1]~模型在单个句子上工作得很好,但像text- embedt-ada -002~[2]~这样的模型在包含256或512个tokens的块上表现得更好。
RAG
大模型
OpenAI
Ilya认错,Scaling Law崩了?自曝SSI秘密技术路线取代OpenAI
所谓GPT,即生成式预训练
Transformer
模型,是ChatGPT和大多数其他生成式人工智能产品的基石。
Scaling
Law
AI大模型
<
...
5
6
7
8
9
10
11
12
13
14
>
1
2
4
5
6
7
8
9
100