首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· SD入门教程六:ControlNet基础入门
· 最强国产开源多模态大模型MiniCPM-V:可识别图片、视频,还可在端侧部署
· 回来啦 | Stable Diffusion 图片背景完美替换
· 文心一言大模型使用指南
· 大模型中的Top-k、Top-p、Temperature详细含义及解释
· ComfyUI初学者指南
· 一文带你看懂OpenAI-Sora生成视频的原理
· 深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型
· FFmpeg之父新作——音频压缩工具 TSAC
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
阿里云开源通义千问多模态大模型Qwen-VL,持续推动中国大模型生态建设
用户可从魔搭社区直接下载模型,也可通过阿里云灵积平台访问
调
用Qwen-VL和Qwen-VL-Chat,阿里云为用户提供包括模型训练、推理、部署、精
调
等在内的全方位服务。
大模型
新模型Cascade你真的用对了吗?!
并且当前已知的扩展(如
微
调
、LoRA、ControlNet、IP 适配器、LCM 等)也可以通过此方法实现。
Stable
Cascade
模型
大模型
从零开始学习大模型-第二章-大模型学习路线
必备基础知识 数学基础:深入理解线性代数、概率论和统计学、
微
积分等基础数学知识。
大模型
学习
RAG
24年首篇离奇论文:加点噪声,RAG效果翻倍?
这些结果强
调
了开发专门策略以整合检索和语言生成模型的重要性,并为未来的研究奠定了基础。
RAG
检索增强
Prompt
Prompt屠龙术-大厂prompt工程指南解析提炼
如下是一些细分场景 文字内容如下 开发
LLM
的AI提示流程 第一步:目的陈述 · &ensp
prompt
大模型
解析
OpenAI
【语音识别】OpenAI语音力作Whisper
因此,Whisper几乎不需要额外的
微
调
就已经是高性能的 ASR 模型了。
语音转文字
whisper
写作
AI写作不如意?万字长文深度剖析背后原因
由大型语言模型(Large Language Model,
LLM
)驱动的AI最引人注目的特点之一是它们的写作能力——能够流畅、清晰、有时甚至准确地构建句子。
AI写作
语音
Whisper对于中文语音识别与转写中文文本优化的实践(Python3.10)
使用transformers库,开发人员可以轻松地访问和使用各种预训练的NLP模型,也可以使用该库进行模型的
微
调
和训练。
Whisper
语音优化
实测:本地跑llama3:70B需要什么配置
展示一波
LLM
排名这么帅还不要钱,就问你想不想要 也许从此强大的模型不再只是厂商云端的特权,现在每个人都可以在本地部署Llama 3。
llama
GPU内存
大模型
大模型时代-行业落地的再思考
前者由于改变了模型的权重,可以称作是训练(
微
调
)了一个行业大模型,后者则基本只能认为是通用大模型的应用了,因为模型还是那个模型。
大模型
工具
惊艳推荐!8款好用又免费的文本转语音TTS工具
这种技术使用深度神经网络模型来合成语音,能够更自然地模拟人类的发音和语
调
,从而产生更加流畅和自然的语音输出。
TTS
Maker
语音
大模型
8G显存一键训练,解锁Llama2隐藏能力!XTuner带你玩转大模型
1 pip install xtuner 2 # 不破坏 Chat 模型对话模版,继续增量指令
微
调
3 xtuner train internlm_chat_7b_qlora_oasst1
大模型
深度|红杉重磅发布:2024 AI 50 榜单 (全网最全)
尽管2023年美国的大部分AI风投都流向了基础设施领域——其中60%流向了最大的大语言模型(
LLM
)提供商,但应用公司仍在AI 50强榜单中占据主导地位。
生成式AI
榜单
AI应用
ChatGLM
使用自己的数据训练清华ChatGLM2-6B 模型
P-Tuning v2 将需要
微
调
的参数量减少到原来的 0.1%,再通过模型量化、Gradient Checkpoint 等方法,最低只需要 7GB 显存即可运行。
ChatGLM2-6B
如何将 GPT 幻觉发生率从 20% 以上降低到 2% 以下
我们没有进行
微
调
,而是结合使用提示链接和预处理/后处理来将幻觉率降低一个数量级,但它确实需要 3-4 倍的 OpenAI
调
用次数。
大模型
<
...
26
27
28
29
30
31
32
33
34
35
...
>
1
2
4
5
6
7
8
9
100