首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· Stable Diffusion 30分钟打造AI 写真照片生成器|海马体照相馆这次真的要木得了
· 七问大模型幻觉|LLM Hallucination
· 会“追问”的Agent,大模型知识库另类实践
· ChatGLM智谱清言
· Stable Diffusion API
· ChatGPT写论文最强指令
· 新手向,Stable Diffusion API 接口,在本地调用
· 10大Midjourney描述词网站,让你Ai创作随心所欲!
· 自从prompt用了示例演示,GPT的输出稳定性达90%
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Midjourney
AI绘画 | Midjourney高质量肖像提示词的写法(附50+肖像提示词prompt)
—s 250 --style raw 4.细节细节的描述对于Midjourney生成图像的逼真度有很大的作用,如肤质、头发和
服
装。
文生图
关于GPT-4在变笨,有人写了篇论文证实了这一点
之所以对大模型变笨这个问题感兴趣,当然不是单纯想做“谣言粉碎机”,而是大模型这项关键能力实际上同它的商业化能力息息相关——如果部署在实际环境中的各种AI
服
务会随着大模型的迭代而出现能力上的剧烈波动,这显然不利于大模型的落地
大模型
ChatGPT
20个ChatGPT超实用的提示词(Prompt)
创建任何形式的文本或内容 Prompt:“主题:如何有说
服
力地写作 听众:企业高管 格式:[PPT/Word/Excel……] 演讲语气:教育和鼓舞人心 目标:激发听众有效写作 附加说明:演讲应在
prompt
提示词
一个令人惊艳的图片高清化重绘神器:SUPIR来了!
不过SUPIR的优点也很明显,不仅处理了面部,对画面中的其它元素也进行了修复,比如上图中的
服
装部分更清晰了。
SUPIR
文生图
Stable Diffusion
硬核解读Stable Diffusion(系列三)
finetune了UNet,但是容易过拟合,而且存储成本;另外一种低成本的方法是基于微软的LoRA,LoRA本来是用于finetune语言模型的,但是现在已经可以用来finetune SD模型了,具体可以见博
客
Using
Stable
Diffusion
文生图
Prompt
写不好Prompt?可以先写个粗糙版本,然后让GPT帮助优化。
总结 写Prompt并没有那么难,关键在于克
服
起步时的恐惧和犹豫,采取行动。
Prompt
GPT
大语言模型的拐杖——RLHF基于人类反馈的强化学习
值得注意的是,在最近的工作中,它在一系列任务上得到了很好的测试和基准测试,总计2000个实验,突出了数据预算比较(专家演示与奖励建模)、处理奖励黑
客
攻击和训练不稳定性等方面的一些实际见解。
大模型
训练
大模型
分析过688篇大模型论文,这篇论文综述了LLM的当前挑战和应用
不可重现的 API:以推理 API 的形式提供
服
务的模型通常是不可重现的。
开源模型
Sora
深度|万字访谈!Open AI Sora作者,亲自揭秘Sora原理,Sora能带我们通往AGI吗?
我们发布了一篇名为《Sora 首印象》的博
客
,展示了我们授权给多位艺术家的视频。
Sora
原理
数字人
AI虚拟主播数字人技术实现Wav2Lip
硬件环境准备(智星云) 3.2 下载Wav2Lip包 3.3 Wav2Lip运行环境准备 3.4 上传原视频、音频 3.5 运行 3.1 硬件环境准备 可以用自己电脑,我这边直接用的其他的
服
务器
数字人
视频
微软
微软打破Decoder-Only架构!大幅降低GPU内存需求,网友:把Llama3 70B弄20GB GPU上运行
推理优势 研究人员评估了YOCO在GPU内存占用、prefilling延迟、吞吐量和
服
务容量等方面的优势,评估上下文范围为32K至1M。
Decoder-Decoder
YOCO
架构
RAG
LangChain: LLM 应用聚焦的两大方向,RAG 和 Agents
llm 在垂直领域应用落地的目的,Agents 就是让 llm 学会现实世界中的各种“规则”,比如互联网的各种 API,比如 web 上的各种按钮交互怎么做等等,几年前有个哥们供职于国内做 App 测试
服
务的头部企业
大模型
大模型
【大模型微调】 Llama 2 :对话模型的全过程微调
预训练数据 为了训练 Llama 2 模型,作者采用了一种新颖的数据混合方式,来源于公开可访问的资源,但去除了Meta公司产品或
服
务的数据。
大模型
大模型
大模型微调应用实践,没那么简单,看看曾经踩过的坑
通过查看
服
务器相关监控,发现是网络带宽打满,上不去了,其他系统监控基本正常。
大模型
大模型
开源大模型部署及推理所需显卡成本必读:也看大模型参数与显卡大小的大致映射策略
备注:模型训练所需GPU显存是本地笔记本所不能完成的,但是我们一般正常使用模型的预测推理
服
务还是没多大问题的 显存的总占用可以通过将上述各部分的大小相加来计算
开源模型
<
...
34
35
36
37
38
39
40
41
42
43
...
>
1
2
4
5
6
7
8
9
100