首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 【工具书】文生图Midjourney最全prompt提示词分类对照表
· ComfyUI官方使用手册【官网直译+关键补充】
· 谈Agent构建平台的设计
· AI音乐热潮下,“神曲工作室”率先失业
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· 最强国产开源多模态大模型MiniCPM-V:可识别图片、视频,还可在端侧部署
· 2024!深入了解 大语言模型(LLM)微调方法(总结)
· OpenAI Sora视频生成模型技术报告中英全文+总结+影响分析
· 提高写作能力的90个prompt大全
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
GitHub狂飙3万star的LLM公开资料 - 大模型入门教程
2.1 LLM 架构 虽然不需要深入了解
Transformer
架构,但了解其输入(token)和输出(logits)是很重要的。
LLM
大模型
GitHub
开源
研究人员开源中文文本嵌入模型,填补中文向量文本检索领域的空白
由于 GPT 使用的
Transformer
模型的自身特性,导致模型只能从固定长度的上下文中生成文本。
GPT
Sora
深度|万字访谈!Open AI Sora作者,亲自揭秘Sora原理,Sora能带我们通往AGI吗?
这些内容被转化成了一种通用的Token语言,并在这些不同类型的Token上训练大型的
Transformer
模型,从而形成了一种通用的文本数据模型。
Sora
原理
基于Ollama本地部署Llama3指南!
模型架构 Llama 3 是一个自回归语言模型(an auto-regressive language),它使用优化的
transformer
架构。
LLama3
ollama
大模型
深度对比丨探索LLM(大模型)部署服务的七大框架差异
· · 使用flash-attention(和v2)和Paged Attention优化
Transformer
代码进行推理。
大模型
史上最好的中文大预言模型出现了!!!
测试问答:详述LLM和GPT区别 (这里面就胡说了,LLM和GPT都是基于
transformer
……) Kimi Chat,可以联网以及文档解析。
Kimi
Chat
大模型
金融
金融行业的AIGC应用
中,详细介绍了ChatGPT的提示工程和选股使用指南;广发金工的《
Transformer
架构下的量价选股策略:ChatGPT 核心算法应用于量化投资》,利用的是ChatGPT模型的核心算法——
Transformer
金融
大模型
Sora
微软对 Sora 进行了逆向工程分析,揭秘 Sora 的秘密
在技术层面,Sora 的核心是一种预先训练好的扩散式
Transformer
[4]。
Sora
微软
大模型
中文通用大模型最全汇总
它采用
Transformer
自回归架构(auto-regressive),在超万亿(trillion)高质量语料上进行预训练,拥有强大的基础能力。
大模型
开源模型
Sora
快手版Sora「可灵」开放测试:生成超120s视频,更懂物理,复杂运动也能精准建模
架构的选择方面,可灵整体框架采用了类Sora的DiT结构,用
Transformer
代替了传统扩散模型中基于卷积网络的U-Net。
可灵
快手
文生视频
没有思考过 Embedding,不足以谈 AI
在
transformer
中,最后的输出是一个概率分布,表示每一个词匹配这一“模糊”向量的概率。
开源模型
Agent
10个具有代表性的AI-Agents,将如何改变互联网/重塑Web3
Tranformer Agents
Transformer
Agents是hungging Face推出的一个AI-Agents系统,尽管当前功能还不咋滴,但是必须保持关注的关键原因在于
开源模型
Github
8月份最火的 5 个 GitHub 项目
Qwen-7B是基于
Transformer
的大语言模型, 在超大规模的预训练数据上进行训练得到。
下载
AGI
通往 AGI 之路:走进大语言模型
一、认识 ChatGPT ChatGPT 的全称是 Chat Generative Pre-trained
Transformer
,中文翻译过来就是基于生成式预训练变化的聊天模型,是 OpenAI 公司在
AGI
ChatGPT
大语言模型
Microsoft
来自Microsoft Build 2023:大语言模型是如何被训练出来的
核心是基于
transformer
架构,利用大量的无标注数据来训练模型对下一个token的预测,这也是整个大模型阶段最消耗时间和算力的地方。
大模型
<
...
2
3
4
5
6
7
8
9
10
11
...
>
1
2
4
5
6
7
8
9
100