首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 第一性原理以及第一性原理是怎么帮马斯克成为首富的
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 从第一性原理看大模型Agent技术
· ComfyUI官方使用手册【官网直译+关键补充】
· 芯片拼接技术:英伟达新核弹,站在苹果的肩膀上
· AI声音克隆 | 最全最简教程(权威版)
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· 生成式AI与大语言模型的区别
· 自己电脑上跑大语言模型(LLM)要多少内存?
· 深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
免训练!单图秒级别生成AI写真,人像生成进入无需训练的单阶段时代
这一创新版本摒弃了
传
统的人物模型训练过程,能够直接生成 zero-shot 目标人像,引领 AI 人像生成进入了无需训练的单阶段时代。
FaceChain
FACT
文生图
Prompt
解读提示工程(Prompt Engineering)
这些虚拟令牌被预先追加到Prompt上并
传
递
给 LLM。
Prompt
提示词
大模型
使用大模型自动回复小红书/抖音/快手评论:通过RAG 优化LLMs实现
的基本用法包括输入Promt并获得回复/Response RAG 通过向这个基本过程添加一步来实现 即,执行检索步骤,根据用户的提示,从外部知识库中提取相关信息,并将其注入到提示中,然后
传
递
给
RAG
大模型
自动回复
Prompt
8个超级GPTs Agent,每个浏览量超20w+(实用建议+攻防Prompt)
chat.openai.com/g/g-LUSFniizS-web-builder 2)超强logo生成器 一个专门设计用于创建和迭代LOGO设计的定制版ChatGPT,灵感创作助手,可以无限抽卡,包括你上
传
的草图你可以进行创意定制
GPTs
Agent
RAG
LLM之RAG实战(五)| 高级RAG 01:使用小块检索,小块所属的大块喂给LLM,可以提高RAG性能
这个检索器将
递
归地探索从节点到其他检索器/查询引擎的链接。
RAG
检索
RAG
24年首篇离奇论文:加点噪声,RAG效果翻倍?
与
传
统的大型语言模型相比,RAG系统通过引入外部数据提高了其生成能力。
RAG
检索增强
StableDiffusion
好用的令人发指的图生图,你就告诉我抄哪个吧!—StableDiffusion 第三弹
在我们的现实生活里,这种对需求的
传
递
偏差与错误解读,其实也普遍存在着。
大模型
文生图
如何用大语言模型构建一个知识问答系统
这里提出第三种方法,尝试克服这些困难,基本思想是: 使用
传
统搜索技术构建基础知识库查询。
知识库
阿里
《嬛嬛朕emo啦》但马斯克!阿里这项技术开放试玩
现在登录通义App(原通义千问),选择全民演唱功能,只需上
传
任意一张人物正面大头照,你也能玩儿了。
音频
阿里
下载
中文常用停用词表下载
于是,管理员决定把这些词从书中拿掉,只留下那些真正能够讲述故事、
传
递
信息的词。
训练
停用词
Prompt
自从prompt用了示例演示,GPT的输出稳定性达90%
它们应明确、具体,能够清晰地
传
达预期的输出方向。
prompt
提示词
Google
再超Transformer!Google| 提出两个新模型(Griffin、Hawk),强于Mamba,更省资源
研究者发现这种组合极为高效,因为局部注意力能准确模拟最近的过去,而循环层则能在长序列中
传
递
信息。
transformer
训练
Transformer
图解 transformer——逐层介绍
当前自注意力层的输出被
传
入前馈层,然后将其输出至下一个编码器。
Transformer
大模型
图解
Transformer
TrOCR——基于transformer模型的OCR手写文字识别
打印数据集模型也分别包含三个维度的模型: 使用TrOCR 来进行图片文字识别,我们可以直接使用GitHub开源代码来实现 这里我们需要下载预训练模型,并
传
递
一张需要的图片来进行识别即可
OCR
手写
文字识别
什么是BERT?
它强调了不再像以往一样采用
传
统的单向语言模型或者把两个单向语言模型进行浅层拼接的方法进行预训练,而是采用新的masked language model(MLM),以致能生成深度的双向语言表征。
embedding
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100