首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· LLM大模型推理输出生成方式总结
· 大模型微调经验汇总---LLM finetuning 踩坑经验之谈
· Midjourney AI绘画美女提示词分享一
· ComfyUI初学者指南
· 造梦师手记:C站首推的动漫模型竟然是十八禁?
· 最好用的AI一键换脸工具FaceSwapLab汉化
· AI领域的agent是什么意思?
· 体验完阿里的EMO模型,我emo了
· Stable Diffusion 快速创作角色三视图
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
微软
BGE M3-Embedding:智源最新发布的text embedding模型,多语言检索效果超过微软跟openai
2 BGE M3-Embedding 2.1
训
练
数
据
构建 M3-Embedding的
训
练
用了非常庞大且多样化的多语言
数
据
集
,
BGE
M3-Embedding
多语音检索
开源
Falcon 180B 开源影响了谁?
据
官方消息,Falcon 180B是使用 Amazon SageMaker 在多达 4096 个 GPU 上同时对 3.5 万亿个 token 进行
训
练
,比Llama 2多了近一倍的
数
据
集
,是最多token
大模型
Stable Diffusion
Stable Diffusion 30分钟打造AI 写真照片生成器|海马体照相馆这次真的要木得了
训
练
方式非常简单,只需要提供 5 到 20 张肖像图片(最好是半身照片且尽量不要佩戴眼镜),20 分钟左右,Stable diffusion 就可以
训
练
好
数
字分身。
SD
文生图
写真照
大模型
AI大模型LLM可以帮助企业做什么?
这些模型采用了自监督学习方法,通过大量无标注文本进行
训
练
。
大模型
RAG
RAG从入门到精通-RAG简介
LLM的知识更新难题 在进入RAG的介绍之前,需要读者首先理解一个概念,LLM的知识更新是很困难的,主要原因在于: 1.LLM的
训
练
数
据
集
是固定的,一旦
训
练
完成就很难再通过继续
训
练
来更新其知识。
rag
大模型
大模型
北大开源最强aiXcoder-7B代码大模型!聚焦真实开发场景,专为企业私有部署设计
还不过瘾,aiXcoder团队还提出了一个更大的测评代码生成补全
数
据
集
(16000多条来自真实开发场景的
数
据
),做了进一步测评,效果更明显。
aiXcoder-7B
大模型
Stable Diffusion
Meta发布业界最强文生图模型CM3Leon,实力碾压Stable Diffusion、Midjourney
CM3leon是第一个使用从纯文本语言模型改编的方法进行
训
练
的多模态模型,包括大规模检索增强预
训
练
阶段和第二个多任务监督微调(SFT)阶段。
文生图
大模型
基于Ollama本地部署谷歌开源Gemma大模型!
这次发布的Gemma不仅仅只有2B 和 7B这两种规模,实际上是发布了Gemma系列(经过预
训
练
的变体和指令优化的变体,大大小小50多种),Gemma 模型非常适合各种文本生成任务,包括问答、总结和推理
ollama
gemma
qwen
ChatGPT
AI 绘画新时代:ChatGPT + DALL-E 3
算法效率:尽管 MidJourney 拥有更多可能的
数
据
集
,但其质量相较于 OpenAI 仍显不足。
文生图
图生图
chatGPT
DALL-E
AI颠覆的第一个体育赛道,来了
在
训
练
和比赛分析方面,AI技术也在发挥着重要作用。
体育
AI
大模型
大模型微调应用实践,没那么简单,看看曾经踩过的坑
样本量规模增大,
训
练
出现OOM错: 模型
训
练
的样本
数
量从10万,增大300万,
训
练
任务直接报OOM了。
大模型
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
训
练
数
据
以英文为主,不包含中韩日文,所有
训
练
数
据
都是开源的,分词之后大约有1400B的tokens。
大模型
大模型
百川智能RAG方案总结:搜索出生的百川智能大模型RAG爬坑之路
方法进行解读,百川智能具有深厚的搜索背景,来看看他们是怎么爬RAG的坑的吧~ 总的来说,百川通过长上下文模型(192k)+搜索增强结合的方法来解决知识更新,降低模型幻觉的问题,使得其在5000万tokens的
数
据
集
中取得
RAG
大模型
开源
网易有道强力开源中英双语语音克隆
下载预
训
练
模型, 然后运行: mkdir -p outputs/style_encoder/ckpt mkdir -p outputs/prompt_tts_open_source_joint/ckpt
语音
开源
语音
实时语音克隆
建议使用 GPU 来进行
训
练
和推理速度,但这不是强制性的。
语音
克隆
<
...
25
26
27
28
29
30
31
32
33
34
...
>
1
2
4
5
6
7
8
9
100