首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 第一性原理以及第一性原理是怎么帮马斯克成为首富的
· Coze多智能体(Multi-Agents)模式体验!
· 一键AI换脸!小红书和北大合作的InstantID
· 【AI绘画】入门英文名词解析
· 让你每次都随机生成各种图片,开盲盒的感觉:SD插件之无限抽卡神器Dynamic Prompts
· ComfyUI官方使用手册【官网直译+关键补充】
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· 【语音领域-又双叒更新】阿里开源FunAudioLLM: 2大核心模型、5大亮点功能!效果炸裂!手把手带你理论+实战部署推理!
· 【AI代理】扣子,开始探索多代理模式
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
语音、视频转文字神器:开源whisper介绍
下图展示了使用large-
v2
模型对Fleurs数据集进行的WER(词误率)语言拆解。
人工智能
大模型
wisper
微软
微软打破Decoder-Only架构!大幅降低GPU内存需求,网友:把Llama3 70B弄20GB GPU上运行
在LM Eval Harness的多个下游任务上,YOCO与Transformer模型OpenLLaMA-3B-
v2
、StableLM-base-alpha-3B-
v2
、StableLM-3B-4E1T
Decoder-Decoder
YOCO
架构
开源
截至2023年5月份业界支持中文大语言模型开源总结及商用协议分析
Dolly有2个版本,v1是基于vicuna模型微调得到的,
v2
模型则是基于pythia模型得到的。
大模型
大模型
垂直领域大模型的一些思考及开源模型汇总
训练方法:基于ChatGLM-6B模型,采用Lora和P-tuning-
v2
两种方法进行模型训练。
垂直领域
大模型
开源模型
汇总
开源
7.1k Star!RAGFlow:最新开源OCR+深度文档理解的RAG引擎、大海捞针测试、降低幻觉、服务化API集成进业务!
o o • 2024-05-08 集成大模型
DeepSeek
o o • 2024-04
OCR
RAG
开源
大模型
大模型应用中大部分人真正需要去关心的核心——Embedding
例如,all-MiniLM-L6-
v2
模型是在线托管和运行的,不需要专业知识或安装。
大模型
Midjourney
AI绘画 | Midjourney高质量肖像提示词的写法(附50+肖像提示词prompt)
一、逼真肖像提示词的注意事项 1.确保使用 -v 5 以上模型大家都知道Midjourney的模型从
V2
-V5,生成的图像质量也越来越高,目前最新版本是V5.2,真正在逼真度上有质的飞跃的是从V5
文生图
教程
爆火的“女孩的一生”,plus版教程它来了
pwd=v234 提取码:v234 --来自百度网盘超级会员
V2
的分享 出自:https://mp.weixin.qq.com/s/q-RW9qOYzD1cBQ99b85wsw
动画
视频
AnimateDiff
Stable Diffusion
Stable Diffusion 必装插件查缺补漏,你还有哪个没装?(下)
安装完成后上传一张图像,然后选择一个反推模型(一般使用 wd14-vit-
v2
.git ),点击 Interregats 进行反推,就能得到关于图像的一组提示,并显示每个关键词的相关性权重。
文生图
Stable
Diffusion
ChatGLM
LangChain + ChatGLM2-6B 搭建私域专属知识库
基于 P-Tuning 微调 ChatGLM2-6B ChatGLM2-6B 环境已经有了,接下来开始模型微调,这里我们使用官方的 P-Tuning
v2
对 ChatGLM2-6B 模型进行参数微调
知识库
大模型
大模型高效微调:🤗 PEFT 使用案例
✅ Deberta-
v2
大模型
大模型
微调、训练大模型概念介绍及论文笔记:Tuning系列论文笔记
P-tuning不改变预训练阶段模型参数,而是通过微调寻找更好的连续prompt提示,来引导已学习到的知识的使用;Fine-tuning可能在调整模型参数过程中,可能带来了灾难性遗忘问题 提示微调
v2
训练
微调
再也不怕合照缺人,Anydoor为图片编辑开了一道「任意门」
因此,作者选择了 DINO-
V2
作为 ID 提取器的底座,使用单个线性层将 ID 提取器的 token 对齐到预训练的文本到图像的 UNet 中。
Anydoor
文生图
大模型
“实时”语音翻译!AI语音具有“情绪”!最强开源AI大模型来了
seamless-communication是基于神经网络的模型,它使用了多种技术,融合了SeamlessM4T
v2
多语言性、SeamlessStreaming 的低延迟性、 SeamlessExpressive
大模型
开源模型
语音
大模型
大模型实践总结
P-Tuning
v2
:让Prompt Tuning能够在不同参数规模的预训练模型、针对不同下游任务的结果上都达到匹敌Fine-tuning的结果。
大模型
训练
<
1
2
3
4
5
6
>
1
2
4
5
6
7
8
9
100