首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 写不好Prompt?可以先写个粗糙版本,然后让GPT帮助优化。
· 强大高效的微信爬虫Wechat_Articles_Spider:快速获取公众号文章的利器
· 手把手!做Llama3的MoE专家混合模型!底层原理怎样的?做自己的MoE模型?需要多少算力?
· SD入门教程六:ControlNet基础入门
· 四种微调技术详解:SFT 监督微调、LoRA 微调、P-tuning v2、Freeze 监督微调方法
· 造梦师手记:C站首推的动漫模型竟然是十八禁?
· 提示词框架:BROKE
· AI必备Prompt技巧《提问的艺术——让AI导出高质量答案》
· 自从prompt用了示例演示,GPT的输出稳定性达90%
· 在SD中一键换脸!!!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
中文版开源Llama 2同时有了语言、多模态大模型,完全可商用
在有监督微调阶段,同时使用跨模态(cross-modal)
指
令
数据和仅文本(text-only)
指
令
数据进行多任务训练。
开源模型
Prompt
Learn Prompting-基础篇
能够正确
指
导人工智能是一项非常
强
大的技能。
prompt
AI绘画Stable-Diffusion风格化实战
在这里插入图片描述 ControlNet-使用边缘轮廓条件 我们仍旧以蒙娜丽莎的图片为例,分别使用 SDXL 模型的 Canny 控制模式和 SD1.5 模型的
指
令
级修图控制模式。
Stable-Diffusion
文生图
新模型Cascade你真的用对了吗?!
最
后我整理打包了此模型,【Stable cascade模型+安装方法+工作流】整套放在了文章
最
后,伙伴们自行下载~ 02 效果对比(Cascade 模型与SDXL模型) 左边使用Cascade
Stable
Cascade
模型
大模型
基于Ollama本地部署谷歌开源Gemma大模型!
基本介绍 Gemma 是由 Google 推出的一系列轻量级、
最
先进的开放模型。
ollama
gemma
qwen
人工智能
AI产品经理视角:如何构建人工智能产品
您提供的许多功能本身在界面中并不可见,而是“隐藏”在模型中,您需要教育和
指
导用户以
最
大化这些好处。
大模型
产品经理
大模型
国内法律类大模型介绍
基础模型:ChatLAW-13B * 数据:论文、新闻、法规、司法解释、法律咨询、法考题、判决文书组成,随后经过清洗、数据增
强
等来构造训练数据
法律
大模型
Prompt
Prompt全攻略(二):Prompt编写的要诀
要真正发挥ChatGPT的
强
大功能,掌握Prompt编写技巧尤为重要。
prompt
开源
ChatGLM3-6B:新一代开源双语对话语言模型,流畅对话与低部署门槛再升级
在语义、数学、推理、代码、知识等不同角度的数据集上测评显示,ChatGLM3-6B-Base 具有在 10B 以下的基础模型中
最
强
的性能。
ChatGLM3
语音模型
开源模型
Sora
中学生也能看懂的Sora视频生成原理解读
但如果你按照某个
指
定的主题,比如“花园”,逐步地去修改和优化这些斑驳的笔迹,
最
终,这些无序的线条就会逐渐变成一幅美丽的花园画面。
视频生成
sora
开源
开源语音大语言模型来了!阿里基于Qwen-Chat提出Qwen-Audio!
在训练时应用了SpecAugment作为数据增
强
方法。
大模型
语音
大模型
垂直领域大模型的一些思考及开源模型汇总
A:是也不是,纯文本只能用于模型的预训练,真正可以进行后续问答,需要的是
指
令
数据。
垂直领域
大模型
开源模型
汇总
请以“续航”为题目,写一篇议论文
青春是人生中
最
宝贵的时光,也是
最
充满活力的时光。
中文
训练
大模型
ComfyUI
入坑必看:comfyui界面与基础操作
【comfyui新手
指
南】轻松入门AI绘画世界!
comfyui
文生图
大模型
llm-action:让天下没有难学的大模型
从6B到65B,从全量微调到高效微调(LoRA,QLoRA,P-Tuning v2),再到RLHF(基于人工反馈的
强
化学习)。
大模型
LLM
<
...
23
24
25
26
27
28
29
30
31
32
...
>
1
2
4
5
6
7
8
9
100