首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· ComfyUI-DDetailer脸部修复
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
· 秘塔AI搜索
· 大模型套壳祛魅:质疑套壳,理解套壳
· 集成文字生成、抠图、图像融合等强大功能的comfyUI 插件 Allor Plugin
· 用ChatGPT辅助学习,成为超级学霸
· OpenAI Sora视频生成模型技术报告中英全文+总结+影响分析
· “实时”语音翻译!AI语音具有“情绪”!最强开源AI大模型来了
· 文生图提示词prompt详解
· AI制作艺术二维码 - 文生图
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
教程
交友神器!AI二维码终极教程,3步做出你的专属艺术二维码!
还是交友,都会用到二维码 在此之前大家最常见的二维码都是千篇一律的黑白码点 而现在我们通过AI绘画,可以生成「艺术二维码」 也就是 看上去是图片,实际上却是一张二维码 更好玩的是,还可以根据你
自
己的兴趣爱好生成不同类型的二维码
文生图
RAG
RAG超参数调优食用指南
为了解决这些问题 LlamaIndex 推出了一个 ParamTuner 类,可以
自
动、高效地执行超参数调整。
rag
大模型
Stable Diffusion
小白设计师福音:Stable Diffusion 16款插件测评,好用不?推荐吗?
其中包含,中文输入
自
动转英文、
自
动保存使用描述词、描述词历史记录、快速修改权重、收藏常用描述词、翻译接口可以多种选择、一键粘贴删除描述词等。
SD
插件
文生图
教程
谁杀死了我们的技术教程?网络技术教程越来越少?
更多受限于发布的平台、
自
己的心境等等。
技术
技术教程
Sora
解读OpenAI Sora文生视频技术原理
”成
自
己的语言,然后通过注意力Attention从中提取各种丰富的知识和结构,加权积累与关联生成
自
己的语言,然后“
编
码”回人类的语言。
sora
Meta
各个语种互相翻译:Meta推出NLLB-200 AI模型,可实现200种语言互译
△NLLB支持的部分语种截图
由
于这些语言之间都可以两两互译,所以咱们能用NLLB把阿斯图里亚语、卢甘达语、乌尔都语等地球上的小众语言直接译成中文了。
翻译
大模型
ChatGLM
在Win11上部署ChatGLM3详细步骤
2023年10月27日,智谱AI于2023中国计算机大会(CNCC)上,推出了全
自
研的第三代基座大模型ChatGLM3及相关系列产品,这也是智谱AI继推出千亿基座的对话模型ChatGLM和ChatGLM2
大模型
ChatGLM
智普
Prompt
你的AI还在睡觉?33条Prompts让它瞬间变身超能力团队!
根据这些因素制定一个决策矩阵来对任务进行
排
名,确保紧急性和重要性之间的平衡。"
提示词
Mixtral 7B 官宣免费,一大波 AI 模型也免费了,有网就能用!
AI 领域最近刚发生一件值得关注的事情,那就是一家来
自
于巴黎的 AI 初创公司 Mistral 在 12 月 8 日发布了他们最新的 Mixtral 8x7B 开源模型。
开源
大模型
微调
一文讲明白什么是预训练、微调和上下文学习
最近语言模型在
自
然语言理解和生成方面取得了显著进展。
大模型
训练
大模型
九问中国大模型掌门人,万字长文详解大模型进度趋势
但
由
于梯度下降带来很大的不稳定性,且极难实现
自
动化。
大模型
详解
教程
SD入门教程二:文生图基础用法(提示词)
在生成图片前,我们先了解下提示词的基础原则,有了这些知识能迅速帮助各位同学构建出
自
己的提示词。
SD
prompt
文生图
提示词
Stable Diffusion
Stable Diffusion真实人物转卡通证件照(2.0版)
一、简介 你想创建
自
己的卡通证件照吗?
Stable
Diffusion
文生图
大模型
大模型微调方法总结
假设模型在任务适配过程中权重的改变量是低秩(low rank)的,
由
此提出低秩
自
适应(LoRA)方法,LoRA 允许我们通过优化适应过程中密集层变化的秩分解矩阵来间接训练神经网络中的一些密集层,同时保持预先训练的权重不变
开源模型
大模型
全球最强长文本大模型,一次可读35万汉字:Baichuan2-192K上线
这个数据集
由
DeepMind 的研究人员制作,用来制作该数据集的资料来
自
古腾堡计划的图书,因此 PG-19 具有书本级的质量。
Baichuan2
百川
开源
<
...
39
40
41
42
43
44
45
46
47
48
...
>
1
2
4
5
6
7
8
9
100