首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· ModelScope(一站式开源的模型即服务共享平台)的简介、安装、使用方法之详细攻略
· AI创作 |如何通过GPT进行漫画视频的故事改写
· 深入浅出学习Stable diffusion之线稿转效果图
· AI Math Solver
· openpose原理及安装教程(姿态识别)
· 回来啦 | Stable Diffusion 图片背景完美替换
· 14.4K Star,一款漂亮、快速、现代化的开源免费UI组件库
· 书生·万卷:难得的中文开源数据集
· 大模型下半场,关于Agent的几个疑问
· 读取大脑重建高清视频,Stable Diffusion还能这么用
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
解码二维码:揭秘我的漂亮二维码生成秘诀!
· 1、二维码
处
理
这个插件可以生成标准二维码,对二维码进行变形,还可以对SD生成的艺术二维码进行像素块修正。
图像文字
Transformer
ViTPose+:迈向通用身体姿态估计的视觉Transformer基础模型
ViTPose+进一步拓展到多种不同类型的身体姿态估计任务,涵盖动物、人体以及典型的身体骨骼、手、脚、脸部等关键点类型,在不增加推
理
阶段模型复杂度和计算复杂度的情况下,实现了多个
数
据
集上的最佳性能。
ViTPose+
Transformer
身体姿态
StableDiffusion
深度解析丨StableDiffusion在多个设计场景中的探索与应用
Controlnet我们需要使用两个预
处
理
器及模型:【canny】和【depth】。
文生图
一网打尽 | 掌握64个策划思维模型,逆转职业寒冬!(高清图+模型详解)
A (Act)
处
理
,对总结检查的结果进行
处
理
,对成功的经验加以肯定,并予以标准化;对于失败的教训也要总结,引起重视。
策划思维模型
方法论
大模型
【大模型微调】 Llama 2 :对话模型的全过程微调
为了提高性能,他们实施了几项改进措施,包括增强
数
据
清洗、更新
数
据
混合方式、训练更多记号
数
量,并且扩大上下文长度。
大模型
语音
实时语音克隆
建议使用 GPU 来进行训练和推
理
速度,但这不是强制性的。
语音
克隆
开源
研究人员开源中文文本嵌入模型,填补中文向量文本检索领域的空白
中文开源文本嵌入模型中最被广泛使用的 text2vec 主要是在中文自然语言推
理
数
据
集上进行训练的。
GPT
Sora
微软研究团队:Sora核心技术及未来机会研究报告-中英对照版
(2) 接下来,一个视觉转换器 (ViT)
处
理
这些潜码的
数
据
表示,输出清洁、无噪声的视频
数
据
表示。
sora
论文
LLM
ChatPDF | LLM文档对话 | pdf解析关键问题
Q4:如何提取表格和图片中的
数
据
?
大模型
Midjourney
50+ Midjourney 美食相关提示词,看了别留口水哦
通过对提示词的精挑细选,我们就可以从这个宝藏里面挖掘无
数
的美食创意。
midjourney
文生图
绘画
大模型
什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
NLU(自然语言
理
解)任务效果很好,单卡GPU可以部署,速度快,V100GPU下1秒能
处
理
2千条以上。
大模型
如何将 GPT 幻觉发生率从 20% 以上降低到 2% 以下
我们没有进行微调,而是结合使用提示链接和预
处
理
/后
处
理
来将幻觉率降低一个
数
量级,但它确实需要 3-4 倍的 OpenAI 调用次
数
。
大模型
大模型
GitHub狂飙3万star的LLM公开资料 - 大模型入门教程
Python 基础:Python 编程需要对基本语法、
数
据
类型、错误
处
理
和面向对象编程有良好的
理
解。
LLM
大模型
GitHub
ChatGPT
ChatGPT写论文指令全集
数
据
分析 分析
数
据
:使用适当的统计方法或定性分析方法
处
理
数
据
。
ChatGPT
写作
Transformer
万字长文震撼来袭!揭秘Transformer——吐血解读自注意力机制的革命性突破
敲黑板,划重点 缩放点积注意力机制是一种高效的注意力计算方法,通过缩放点积和softmax函
数
得到值的权重,适用于大规模
数
据
处
理
,并在实践中展现出优于加性注意力的性能。
Transformer
大模型
<
...
40
41
42
43
44
45
46
47
48
49
...
>
1
2
4
5
6
7
8
9
100