首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· Stable Diffusion|提示词高阶用法(二)双人同图
· 复旦开源中文医疗大模型,基于百川微调,模型和数据集都公开
· Suno音乐新手指南(手把手完整版教程)
· 必看!阿里通义千问完整技术报告
· clone-voice:一键克隆声音,开源AI技术让声音创作更便捷、更个性化
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· OmniVision - 968M:小巧精悍的视觉语言模型,释放多模态边缘计算强大潜能
· MCP服务介绍及应用场景报告-来自Manus
· 理解 o3 及其技术分析
· 腾讯悄悄开源混元版「Sora」,这就是开源领域的No.1。
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
人工智能
人工智能大语言模型微调技术:SFT 、LoRA 、Freeze 监督微调方法
P-tuning
v2
微调方法 3.1 P-tuning
v2
微调方法的相关技术 传统的微调方法需要微调整个预训练语言模型,对于大语言模型的微调需要大量的资源和时间,急需更加高效的微调方法。
大模型
微调
OpenAI
两天star量破千:OpenAI的Whisper被蒸馏后,语音识别数倍加速
论文地址:https://arxiv.org/pdf/2311.00430.pdf 具体来说,Distil-Whisper 有两个版本,参数量分别为 756M(distil-large-
v2
)和 394M
语音
HeyGen
RAG
RAG 领域的新宠:为什么 AI 圈都在谈论 Jina ColBERT?
原来,ColBERT 升级到
v2
版本,不仅补齐了 v1 版本在存储和扩展性上的短板,还显著提升了性能。
rag
大模型
大模型
总结!大模型微调(Tuning)的常见方法
下图是细致的对比: P-tuning
v2
V2
版本主要是基于P-tuning和prefix-tuning技术,引入Deep Prompt Encoding和Multi-task Learning
微调
大模型
语音
Whisper对于中文语音识别与转写中文文本优化的实践(Python3.10)
audio = whisper.pad_or_trim(audio) model = whisper.load_model("large-
v2
Whisper
语音优化
Stable Diffusion
Stable Diffusion 生成卡通证件照
cartoon_portrait_v1:0.6> 反向提示词:low quality, worst quality, bad-hands-5, bad-image-
v2
SD
证件照
文生图
Stable Diffusion
Stable Diffusion生成卡通证件照
cartoon_portrait_v1:0.6> 反向提示词:low quality, worst quality, bad-hands-5, bad-image-
v2
Stable
Diffusion
语音
Insanely Fast Whisper:超快的Whisper语音识别脚本
项目简介 这篇内容介绍了OpenAI的Whisper Large
v2
语音转录模型的超快速能力。
音频
Whisper
ChatGLM
使用自己的数据训练清华ChatGLM2-6B 模型
什么是P-tuning-
v2
我们让claude.ai解释一下: P-tuning-
v2
是基于Prompt-tuning方法的NLP模型微调技术。
ChatGLM2-6B
使用stable diffsion对老照片进行AI高清放大修复
基础模型,models\Stable-diffusion\
v2
-1_768-ema-pruned.ckpt 3、模型选择 使用图生图功能,大模型选择
v2
-1_768-ema-pruned.ckpt,
SD
高清
老照片修复
大模型
整理了近期所有TTS相关的大模型
; XTTS [Repo](https://github.com/coqui-ai/TTS) [](https://huggingface.co/coqui/XTTS-
v2
TTS
大模型
语音
语音识别的未来已来:深入了解faster-whisper的突破性进展
例如,在使用Large-
v2
模型和GPU进行13分钟音频的转录测试中,faster-whisper仅需54秒,而原始Whisper模型需要4分30秒。
语音识别
Faster-Whisper
Stable Diffusion
Stable diffusion 有哪些不错的模型
https://www.zhihu.com/question/597629253/answer/3042997052 基础模型(不推荐) SD系列 比如sd-v1-4、sd-v1-5、sd-
v2
文生图
SDXL
第3期 SDXL和SD的10大区别!你知道几个?
SD v1 生图的最佳分辨率在512x512,SD
v2
则为768x768,而 SDXL 最佳分辨率达到了1024x1024。
文生图
微软
微软打破Decoder-Only架构!大幅降低GPU内存需求,网友:把Llama3 70B弄20GB GPU上运行
在LM Eval Harness的多个下游任务上,YOCO与Transformer模型OpenLLaMA-3B-
v2
、StableLM-base-alpha-3B-
v2
、StableLM-3B-4E1T
Decoder-Decoder
YOCO
架构
<
1
2
3
4
5
6
>
1
2
4
5
6
7
8
9
100