首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 第一性原理以及第一性原理是怎么帮马斯克成为首富的
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 从第一性原理看大模型Agent技术
· ComfyUI官方使用手册【官网直译+关键补充】
· 芯片拼接技术:英伟达新核弹,站在苹果的肩膀上
· AI声音克隆 | 最全最简教程(权威版)
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· 生成式AI与大语言模型的区别
· 自己电脑上跑大语言模型(LLM)要多少内存?
· 深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
开源语音大语言模型来了!阿里基于Qwen-Chat提出Qwen-Audio!
音频编码器的初始化基于Whisper-large-v2模型 ,这是一个包含两个卷积下采样层作为起始层的32层
Transformer
模型。
大模型
语音
大模型
大模型训练为什么用A100不用4090
一共 3 次乘法,3 次加法,不管
Transformer
多复杂,矩阵计算就是这么简单,其他的向量计算、softmax 之类的都不是占算力的主要因素,估算的时候可以忽略。
大模型
RAG
图解检索增强式生成(RAG)技术 | 万字长文
作者设计的一个方案,以及文中接下来的所有方案 基础 RAG 案例的过程大致如下:首先,将文本分割成不同的段落;接着,使用某种
Transformer
编码器模型将这些段落转换成向量;然后
检索增强式生成
RAG
【CLIP系列Paper解读】CLIP: Learning Transferable Visual Models From Natural Language Supervision
cifar100.classes[index]:>16s}: {100 * value.item():.2f}%") 3.3 Training (1)text encoder 作者统一采用GPT-2里的
Transformer
OpenAI
自然语言监督
微调
一文讲明白什么是预训练、微调和上下文学习
Transformer
架构:预训练通常采用基于
Transformer
的架构,因为这种架构擅长捕获远程依赖关系和上下文信息。
大模型
训练
Sora
中学生也能看懂的Sora视频生成原理解读
通过预先训练好的转换器(
Transformer
模型),Sora能够识别每个补丁的内容,并根据给定的文本提示进行相应的修改。
视频生成
sora
大模型
大模型微调经验汇总---LLM finetuning 踩坑经验之谈
最后采用架构上的调整,faster
transformer
要优于传统的
transformer
架构。
大模型
人工智能
大模型
国内AI大模型已近80个,哪个最有前途?
智谱早期是做知识图谱的,大模型浪潮到来之后及时转型到大模型,而且在知识图谱和大模型的结合方面采取了较为务实的路线,并未强行把知识图谱加到
Transformer
里面。
大模型
阿里
本地运行140亿参数,阿里千问玩起来!Qwen+Win11+3060
Qwen-14B是基于
Transformer
的大语言模型, 在超大规模的预训练数据上进行训练得到。
大模型
CodeGeeX:Tab一下,代码自动生成
CodeGeeX含有40个
transformer
层,每层自注意力块的隐藏层维数为5120,前馈层维数为20480,总参数量为130亿。
大模型
大语言模型应用中的文本分块策略
例如,sentence-
transformer
[1]模型在单个句子上效果很好,但像text-embedding-ada-002[2]这样的模型在包含 256 或 512 个token的块上表现更好
开源模型
Sora
通俗易懂地解释OpenAI Sora视频生成的特点有哪些?它与此前的Runway Gen2、Pika有什么区别?以及缺点是什么?
OpenAI Sora是一种结合了Diffusion模型和
Transformer
模型的技术。
sora
视频生成
数据库
主流向量数据库一览
简单下个定义,因为喂给
Transformer
的知识首先需要做embedding,所以用于存储embedding之后数据的数据库即可称为向量数据库。
向量数据库
提示词
震撼!AI语言模型突破瓶颈,26个提示词原则引领GPT-4响应质量飙升57.7%!你的模型还在等什么?
而GPT-1,作为先驱者,用
Transformer
架构和无监督学习打开了新世界的大门。
语言模型
提示词
GPT-4
Mixtral 7B 官宣免费,一大波 AI 模型也免费了,有网就能用!
体验地址:https://anakin.ai/apps/nous-capybara-16451 RWKV v5 RWKV v5 3B 模型是一种免费的新型神经架构,旨在通过综合 RNN 和
Transformer
开源
大模型
<
...
3
4
5
6
7
8
9
10
11
12
...
>
1
2
4
5
6
7
8
9
100