首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 必看!阿里通义千问完整技术报告
· MCP服务介绍及应用场景报告-来自Manus
· 复旦开源中文医疗大模型,基于百川微调,模型和数据集都公开
· 国内厂商语音识别与Whisper评测:现状与概况对比
· 实测:本地跑llama3:70B需要什么配置
· SD插件|EasyPhoto|妙鸭相机平替|美颜算法
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· Stable Diffusion教程:提示词
· 建议收藏:超详细ChatGPT(GPT 4.0)论文润色指南
· 爆火的“女孩的一生”,plus版教程它来了
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
【2023.10】看目前巨头的AI原生产品布局
【MS.
4
】Office Copilot Office Copilot也是个很多人没有用上的产品。
大模型
产品
GPTs
智能时代的变革者:定制化GPTs重塑未来的五大预言
4
.
GPTs
智能
RAG
RAG 2.0,终于把RAG做对了!
例如,撰写本文时,ChatGPT的数据更新至2023年
4
月。
RAG
大语言模型
大模型
语言大模型100K上下文窗口的秘诀
相比之下,当前GPT-
4
模型可以使用32K输入词元的上下文长度,而大多数开源LLM的上下文长度为2K词元。
大模型
视频
AI自动生成视频全流程干货
Canva制作视频封面
4
.
AI
视频
ChatGPT
ChatGPT提示工程 - 总结
合作 编写Prompt的两个关键原则 原则一:编写清晰、具体的说明 策略1:使用分隔符清晰地标识出输入的各个部分 策略2:提示模型以结构化格式输出结果 策略3:让模型检查是否满足条件 策略
4
:
GPT
大模型
国产大模型与全球最强大模型大比拼:语义理解、数学推理同台竞技,究竟谁更厉害
毫无疑问,得分最高的是GPT-
4
,也是唯一一个超过了80分的模型。
大模型
Stable Diffusion
Stable Diffusion快速生图,LCM-Lora、sd_xl turbo寄养和亲生谁好?!
SDXL-Turbo 基于一种称为对抗扩散蒸馏 (ADD) 的新颖训练方法,该方法允许在高图像质量下以 1 到
4
个步骤对大规模基础图像扩散模型进行采样。
sdxl
SD
绘画
大模型
大模型压缩首篇综述来啦~
LLM-QAT能够将带有量化权重和KV缓存的大型LLaMA模型蒸馏为仅有
4
位的模型。
大模型
Midjourney
Midjourney AI绘画美女提示词分享三
Chinese printed cloth Slim Aarons Style, Symmetrical Composition, Volumetric Lighting, Leica-r, f/
4
,
文生图
Midjourney
ChatGPT
ChatGPT提示工程5篇合集(一):ChatGPT提示工程的两个关键原则 - 吴恩达和OpenAI合作(珍藏版)
a cup and put a tea bag in it.Step 3 - Once the water is hot enough, pour it over the tea bag.Step
4
prompt
提示词
Transformer
ViTPose+:迈向通用身体姿态估计的视觉Transformer基础模型
2.5 ViTPose的训练灵活性 表
4
使用不同模块进行训练的ViTPose性能 为了充分探索ViTPose中各个模块对于姿态估计任务的贡献,ViTPose
ViTPose+
Transformer
身体姿态
微软
微软Phi-3、Mixtral 8x22B等小模型过拟合,三分之二存在数据污染
刚刚,Scale AI 的一篇论文对当前最热门的大模型进行了深度调查,包括 OpenAI 的 GPT-
4
、Gemini、Claude、Mistral、Llama
过拟合
小模型
ChatGLM
使用自己的数据训练清华ChatGLM2-6B 模型
在默认配置 quantization_bit=
4
、per_device_train_batch_size=1、gradient_accumulation_steps=16 下,INT4
ChatGLM2-6B
Microsoft
来自Microsoft Build 2023:大语言模型是如何被训练出来的
不同阶段产生的模型能力不同,训练的成本也不一样,预训练阶段的基础模型资源消耗最高
4
.
大模型
<
...
13
14
15
16
17
18
19
20
21
22
...
>
1
2
4
5
6
7
8
9
100