首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 用ChatGPT写论文prompt大全
· Suno音乐新手指南(手把手完整版教程)
· 如何下载及使用通义千问7B开源大模型
· 一键复用!Stable Diffusion WebUI 神仙插件 LightFlow
· 解读 Openai 给 DALLE3 设的完整系统提示词
· 国际货币基金组织最新发布:关于AI与未来工作的报告
· 全球最大开源prompt社区即将开放中文版
· 马斯克怒告OpenAI案解密:Ilya看到了什么?125万亿参数Q*细节曝光,53页PDF全网疯转
· 40个值得收藏的AI prompt提示词,帮助你更好地思考问题,做出更加准确地商业决策,让你无往不利
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
耗时7天,终于把15种ControlNet模型搞明白了
也可以结合其他模型一起用,最终把图片变成你想要的画面就可以了 三、ControlNet安装 在正式学习controlnet之前,我们要先更新版本 不然有些功能没法正常使用 安装新版ControlNet
分
为三个步骤
文生图
Stable Diffusion
Stable Diffusion 年龄转换神器,一键变大变小
模型介绍 这组 embeddings 模型
分
为两
类
: · 变年轻:AS-YoungV2
Stable
Diffusion
文生图
大模型
人话聊AI大模型:AIGC如何助力营销的秘密(上)
公司主要服务对象为企业营销团队以及部
分
自由职业者。
大模型
中本聪的Web3之路
他通过比特币实现了一种去中心化、隐私保护、抗通胀的电子现金系统,为人
类
社会带来了一种全新的价值传输方式。
token
比特币
加密货币
一招让你的 AI 图像更惊艳!DALL-E 3 自定义指令魔法
1.正方形照片: 一只眼睛明亮的黄色啮齿
类
动物,长着尖尖的耳朵和黑色的尾巴,身穿传统的武士盔甲,头戴装饰着新月的武士头盔。
DALL-E3
文生图
Prompt
AI绘画:stable difussion SD插件之 无限抽卡神器 dynamic prompts(动态提示词)
提示词语法 {red|black|blue} hair 用英文{} 括号包含 用|
分
割需要抽卡的同
类
型词。
AI图片
大模型
8G显存一键训练,解锁Llama2隐藏能力!XTuner带你玩转大模型
train internlm_7b_qlora_alpaca_enzh_oasst1_e3 除了支持多种数据集格式外,XTuner 还针对大语言模型数据的特点,对各种数据集格式做了充
分
的解耦
大模型
Meta
如何微调Meta Llama-3 8B
split="train"表示我们正在加载数据集的训练部
分
。
Meta
Llama
3
大模型
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
其优势是不仅具有通用激活函数的非线性,而且反向传播梯度时具有线性通道,
类
似ResNet残差网络中的加和操作传递梯度,能够缓解梯度消失问题。
大模型
阿里
淘宝模特全体注意!阿里AnyDoor AI换装神器出来了,年度最强AIGC重制绘图工具,重塑电商模特产业
步骤2: 到MJ上画一个全身的模特,要注意不能有身体的部
分
如脚在画面外,这样换装的效果就不完美了。
AnyDoor
换装
文生图
微调
Baichuan-13B 保姆级微调范例
本范例微调的模型是Baichuan-13B-Chat,我们使用非常简单的,外卖评论数据集来实施微调,对一段外卖评论区
分
是好评还是差评。
开源模型
换脸
10秒换脸,一张图片够了!SD Roop插件教程
脸的序号从0至N,0代表第一张脸,1代表第二张脸,以此
类
推。
AI换脸
大模型
腾讯开源混元AI绘画大模型
考虑到这是一款开源产品,发布以后可以被其他创作者们魔改,尤其是在大模型的基础上进行深度训练,必然会远超其他AI绘画大模型(如果这个打
分
属实的话)。
腾讯
混元
文生图
ChatGLM
从0到1基于ChatGLM-6B使用LoRA进行参数高效微调
经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人
类
反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人
类
偏好的回答。
大模型
LLM
Byzer-LLM 快速体验智谱 GLM-4
这个
类
似于 OpenAPI 的Key。
Byzer-LLM
GLM-4
<
...
59
60
61
62
63
64
65
66
67
68
...
>
1
2
4
5
6
7
8
9
100