首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 硬核解读Stable Diffusion(系列三)
· 使用这个工具后,我将 RAG 的准确性和召回率都提高了两倍!
· 使用python调用comfyui-api,实现出图自由
· stable diffusion如何确保每张图的面部一致?
· 教会AI画汉字(ComfyUI篇)
· 最详细的文本分块(Chunking)方法——可以直接影响基于LLM应用效果
· 数字人直播哪家强?百度、硅基、风平与闪剪四大AI数字人横向评测!
· AI高手都在用的10个提示词prompt网站,建议收藏!
· 11个顶级的Prompts,用GPT学习的天花板
· Prompt工程入门
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
星标破万!小钢炮
2.6
登顶GitHub,Hugging Face TOP3, 燃爆开源社区!
MiniCPM-V
2.6
的主要特点包括: 🔥 领先的性能。
MiniCPM-V
2.6
大模型
大模型
最强国产开源多模态大模型MiniCPM-V:可识别图片、视频,还可在端侧部署
MiniCPM-V
2.6
是 MiniCPM-V 系列中最新、性能最佳的模型。
minicpm
面壁
StableDiffusion
深度解析丨StableDiffusion在多个设计场景中的探索与应用
2.6
后期微调+排版 使用PS Beta等工具,进行后期的微调处理,再加上排版,一张抖音开屏页海报即可完成。
文生图
baichuan2 有什么好的 深挖论文中涉及的知识点
这两个模型都在
2.6
万亿个令牌上进行了训练,据我们所知,这是迄今为止最大的训练数据集,超过 Baichuan 1(Baichuan,2023b,a)的两倍。
大模型
Transformer
ViTPose+:迈向通用身体姿态估计的视觉Transformer基础模型
2.6
ViTPose+使用MoE机制扩展多数据集 图2 ViTPose+中的FFN-MoE结构 表5 ViTPose
ViTPose+
Transformer
身体姿态
AI文档智能助理都是如何处理pdf的?
地址:https://github.com/PaddlePaddle/PaddleOCR/blob/release/
2.6
/ppstructure/pdf2word/README.md 8. iText
大模型
大模型
中文通用大模型最全汇总
Baichuan2 地址:https://github.com/baichuan-inc/Baichuan2 简介:由百川智能推出的新一代开源大语言模型,采用
2.6
大模型
开源模型
AI绘画当前的应用场景有哪些?
2.6
局部重绘细节处 把选中的图片上传到【局部重绘】中,用画笔涂抹需要修改的地方,把下方的蒙版模式改为【重绘蒙版内容】,点击生成即可。
文生图
写作
绝了!新华社、知网官方出品的写作神器,不要太爽!
也都是过滤掉了非官方网站,但通过不同命令搜到的结果又都是显然不同的 PS:9个完整的必备搜索技巧可以看人民日报的微博原文哈:https://weibo.com/2803301701/FzK9ej3MX
2.6
新华妙笔
写作
LLM
2023年LLM如何入门?请看这篇综述!
2.6
Prompt Tuning Prompt Tuning是通过设计合适的Prompt来对模型进行微调,以使其更好地适应特定的任务或应用场景。
大模型
开源
ChatGLM3-6B:新一代开源双语对话语言模型,流畅对话与低部署门槛再升级
2.6
命令行对话 Demo 运行仓库中 cli_demo.py: python cli_demo.py 程序会在命令行中进行交互式的对话,在命令行中输入指示并回车即可生成回复,输入&ensp
ChatGLM3
语音模型
开源模型
大模型
深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型
5.4、适应性与数据整合 利用 Mixtral 的这些进步,快速适应性和训练框架的多用途性迅速崛起,催生了如 Dolphin
2.6
Mixtral-8x7B 和 OpenHermers
开源模型
Mixtral
8x7B
FaceFusion参数详解
用法: --system-memory-limit 默认值: 0 范围: 0-128 比如: --system-memory-limit 32 (
2.6
)帧处理器参数 FaceFusion
FaceFusion
文生图
开源
Falcon 180B 开源影响了谁?
在他看来,Llama 2接受了2万亿个token训练,刚刚推出的baichuan2是在
2.6
万亿的token上训练的,而Falcon 180B的规模是 Llama 2 的 2.5 倍,baichuan2
大模型
大模型
GitHub狂飙3万star的LLM公开资料 - 大模型入门教程
2.6
评估 评估大型语言模型(LLMs)是流程中被低估的部分,它既耗时又只有适度的可靠性。
LLM
大模型
GitHub
<
1
2
>
1
2
4
5
6
7
8
9
100