首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 使用这个工具后,我将 RAG 的准确性和召回率都提高了两倍!
· 硬核解读Stable Diffusion(系列三)
· 大模型狂飙两年后,“六小龙”开始做减法
· ChatGPT写论文指令全集
· 微软研究团队:Sora核心技术及未来机会研究报告-中英对照版
· AI绘画:InstantID Win11本地安装记录!
· 这个数字人开源项目太牛了,非常全面的项目解决方案(含源码)
· 你要牢记的四个常用AI提示词框架:ICIO、CRISPE、BROKE、RASCEF,有助于获取更加稳定和高质量的内容
· 通俗解读大模型微调(Fine Tuning)
· RAG检索增强技术在知识库智能检索场景下的应用实践
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
大模型评测新思路:弱智吧精华问题大全
有人把这些内容拿出来
训
练
了 AI,认真评测对比一番,还别说,效果极好。
弱智吧
训练数据集
大模型
智源:70万预算,从头开发千亿参数大模型,挑战成功!
预算10万美元(约73万人民币),从头
训
练
一个全新的千亿参数大模型。
大模型
RVC和SVC声音模型难找?推荐这个网站
本篇文章介绍:1, 声音数据集
训
练
到模型的过程 2 ,SVC和RVC声音模型网站推荐 一、声音数据集
训
练
到模型的过程 AI声音模型
训
练
是通过分析大量音频数据来学习声音特性,生成与目标声音相似的新音频
声音克隆
数字人
SDXL
Playground v2:超越SDXL的模型来了,优于SDXL 2.5倍!
Playground团队刚刚发布了新的文生图模型Playground v2,它是基于SDXL的架构从零
训
练
的模型,但是根据用户评价,它在生成效果上比SDXL强2.5倍。
文生图
Playground
微软
2.7B能打Llama 2 70B,微软祭出「小语言模型」!96块A100 14天
训
出Phi-2,碾压谷歌Gemini nano
不过,能否通过恰当的
训
练
方法(比如数据选择等),使得小型的语言模型也能获得类似的能力?
小语言模型
一文带你认识ELMo
ELMo能够
训
练
出来每个词的embedding,可以作为上下文相关的词的向量。
embedding
大模型
大规模中文开源数据集发布!2TB、几十亿条可商用的中文数据集书生·万卷 1.0开源~中文大模型能力可能要更上一层楼了!
随着近年来GPT-3、ChatGPT等大模型的兴起,高质量的数据集在模型
训
练
中扮演着越来越重要的角色。
大模型
大模型
【大模型微调】 Llama 2 :对话模型的全过程微调
预
训
练
数据 为了
训
练
Llama 2 模型,作者采用了一种新颖的数据混合方式,来源于公开可访问的资源,但去除了Meta公司产品或服务的数据。
大模型
ChatGPT
Prompt全攻略(一):ChatGPT时代,什么是Prompt?
随着GPT-3等预
训
练
语言模型的进步,ChatGPT这类交互式人工智能chatbot应运而生。
prompt
什么是BERT?
该模型有以下主要优点: 1)采用MLM对双向的Transformers进行预
训
练
,以生成深层的双向语言表征。
embedding
开源
从声纹模型到语音合成:音频处理 AI 技术前沿 | 开源专题 No.45
它包含了两个最先进的 AI 生成模型 (AudioGen 和 MusicGen) 的推理和
训
练
代码,可以产生高质量音频。
AudioCraft
音频
Sora
OpenAI视频模型Sora的推理生成成本多高?
GPT-4 的
训
练
数据约为 13T - 20T 之间,我们假设为 20T 数据 则 GPT-4
训
练
所需的 FLOPs = 6 * 400B * 20T = 4.8 * 10^25 目前最大的模型
训
练
计算量预估在
Sora
推理
算力
【NLP技术分享】文本生成评价指标的进化与推翻
介绍了以BLEU为代表的基于统计的文本评价指标 · 就 data to text 和 image caption 进一步介绍了其特有的评价模式 · 基于BERT等预
训
练
模型的文本评价指标
开源模型
模型压缩:量化、剪枝和蒸馏
在移动智能终端品类越发多样的时代,为了让预
训
练
语言模型可以顺利部署在算力和存储空间都受限的移动终端,对预
训
练
语言模型的压缩是必不可少的。
BERT
语言模型
开源
最新最全的开源中文大语言模型列表
;第一步:先在42G中文预料上进行
训
练
;后续将会加大
训
练
规模;Chinese-LlaMA2-chat: 对Chinese-LlaMA2进行指令微调和多轮对话微调,以适应各种应用场景和多轮对话交互。
大模型
<
...
2
3
4
5
6
7
8
9
10
11
...
>
1
2
4
5
6
7
8
9
100