首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· MCP服务介绍及应用场景报告-来自Manus
· Fooocus,webui,comfyui优缺点
· 还在手写Prompt?这几大网站让你秒找大模型提示词!
· 自己电脑上跑大语言模型(LLM)要多少内存?
· 2024!深入了解 大语言模型(LLM)微调方法(总结)
· YOO简历
· Midjourney AI绘画美女提示词分享三
· stable diffusion如何确保每张图的面部一致?
· Stable Diffusion使用Roop插件一键换脸教程
· AI换脸工具:facefusion使用心得
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
颠覆
数
据
存储方式:向量
数
据
库的威力
原文:https://zhuanlan.zhihu.com/p/627829073 向量
数
据
库是一种新型的
数
据
库类型,它与传统的关系型
数
据
库和文档型
数
据
库不同。
编程
数据库
AI知识库总是不准?教你无脑用GPT整理结构化
数
据
集
...
搜的不准的原因,就是
数
据
集
太脏了。
GPT
免
训
练
!单图秒级别生成AI写真,人像生成进入无需
训
练
的单阶段时代
目前市场上的 AI 写真大多采用“
训
练
+生成”的两阶段模式,既需要庞大的形象
数
据
支撑,也需要一定的
训
练
时间。
FaceChain
FACT
文生图
开源
昆仑万维携Skywork-13B打造AI新纪元:600GB中文
数
据
集
全球开源
首先,在模型结构上,Skywork-13B采用了更为“瘦长”的设计,有效提升了模型在大批量
数
据
训
练
下的泛化能力。
Skywork
开源
数据
SDXL
SDXL模型lora
训
练
参
数
详细设置,显存占用22G,不用修脸原图直出
的脚本
集
成的,现在更新到最新版本,就可以
训
练
SDXL模型的lora了。
SDXL
训练
大模型
大模型
训
练
工程那些事
从而进一步指导实验管理、
数
据
管线、算力规划、效果评估、
训
练
框架、模型设计等。
训练工程
大模型
大模型
大模型
训
练
为什么用A100不用4090
训
练
总算力(Flops)= 6 * 模型的参
数
量 *
训
练
数
据
的 token
数
。
大模型
大模型
视频大模型
训
练
相关词条解释
它不仅能够根
据
文字指令创造出既逼真又充满想象力的场景,而且能生成长达1分钟的超长视频,不管是一镜到底还是分镜头切换模式,都能够保持角色及背景神一般的一致性和稳定性。
视频生成
sora
词条
向量
数
据
库不是一个单独的
数
据
库分类
其中包括图
数
据
库、关系
数
据
库、文档
数
据
库以及键值
数
据
库,甚至还包括缓存。
大模型
向量数据库
大模型
复旦开源中文医疗大模型,基于百川微调,模型和
数
据
集
都公开
DISC在Github开源了这个项目,其中包括DISC-Med-SFT
数
据
集
(不包括行为偏好
训
练
数
据
)和DISC-MedLLM的模型权重。
大模型
windows安装向量
数
据
库milvus
本文介绍windows下安装milvus的方法:首先要安装docker,然后安装向量库milvus
向量库
docker
大模型
预
训
练
对话大模型深度解读
其实它只是一个
数
学模型,它强大的原因是:用到的计算量很大、
数
据
量很大、
训
练
语言模型的方法比以前好。
开源
开源!
数
字人资源大
集
合!
完整
数
字人项目 http://www.gitpp.com/pythonking/Fay
数
字人资源合
集
源代码 http://www.gitpp.com/digital
数字人
开源
大规模
训
练
系列之技术挑战
图中在 ILSVRC-2012
数
据
集
上
训
练
不同规模的模型,精度能从 ResNet50 (2600 万参
数
)的 77%,提升到 ResNet152x4 (2.4 亿参
数
)的 81.3%
开源模型
Microsoft
来自Microsoft Build 2023:大语言模型是如何被
训
练
出来的
原因在于LLaMA
训
练
使用的
数
据
集
中tokens更多。
大模型
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100