首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 第一性原理以及第一性原理是怎么帮马斯克成为首富的
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 从第一性原理看大模型Agent技术
· ComfyUI官方使用手册【官网直译+关键补充】
· 芯片拼接技术:英伟达新核弹,站在苹果的肩膀上
· AI声音克隆 | 最全最简教程(权威版)
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· 生成式AI与大语言模型的区别
· 自己电脑上跑大语言模型(LLM)要多少内存?
· 深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Prompt
80多个罕见的论文prompt,让你起飞!
我希望得到来自[特定时代,例如“2000 年代初”]的关键文本或专家的指导,特别是那些强
调
[特定环境,例如“高等教育机构”]应用的文献或专家。
prompt
提示词
论文
大模型
九问中国大模型掌门人,万字长文详解大模型进度趋势
从更宏观的角度看待微
调
,就是对齐技术。
大模型
详解
Sora
微软对 Sora 进行了逆向工程分析,揭秘 Sora 的秘密
不同于以往将视频统一
调
整大小、裁剪或修剪的方法,Sora 保留视频的原始尺寸进行训练。
Sora
微软
工具
RAG 与 Finetuning,谁是提升 LLM 的最佳工具?
在深入
研
究之前,让我们揭开这两种方法的神秘面纱:RAG:这种方法将检索(或搜索)的能力集成到LLM文本生成中。
训练
Prompt
结构化Prompt必备基础:5分钟学会Markdown语法,实现提示词创作自由!
对于常用的模块,也可以进行反复
调
用。
Prompt
提示词
Markdown
Prompt
一种通用的 Prompt 框架 - CRISPE
它包括设计提示,引导模型生成特定的语
调
、风格或内容类型。
Prompt
提示词工程
开源
新测试基准发布,最强开源Llama 3尴尬了
Llama 3的两个指令微
调
版本实力到底如何,也有了最新参考。
Llama
3
大模型
开源
知乎
弱智吧竟成最佳中文AI训练数据?!中科院等:8项测试第一,远超知乎豆瓣小红书
这项
研
究来自中科院深圳先进技术
研
究院、中科院自动化
研
究所,滑铁卢大学等众多高校、
研
究机构联合团队。
弱智吧
训练数据集
开源
昆仑万维携Skywork-13B打造AI新纪元:600GB中文数据集全球开源
它不仅开源了130亿参数的大模型,更罕见地配套开源了600GB、150B Tokens的超大高质量中文数据集,为全球AI
研
究者提供了前所未有的资源。
Skywork
开源
数据
大模型
阿里云开源通义千问多模态大模型Qwen-VL,持续推动中国大模型生态建设
Qwen-VL以通义千问70亿参数模型Qwen-7B为基座语言模型
研
发,支持图文输入,具备多模态信息理解能力。
大模型
RAG
12个RAG常见痛点及解决方案
并且将深入
研
究这些RAG痛点的解决方案,这样我们能够更好地在日常的RAG开发中避免和解决这些痛点。
RAG
大模型
科大讯飞
哈工大科大讯飞联合推出中文LLaMA-2 & Alpaca-2大语言模型
本项目基于Meta发布的可商用大模型Llama-2开发,是中文LLaMA&Alpaca大模型的第二期项目,开源了中文LLaMA-2基座模型和Alpaca-2指令精
调
大模型。
训练
2024年傅盛开年AI大课演讲内容PPT
以下是他的部分精彩观点: 首先,傅盛强
调
了AI大模型的重要应用价值。
猎豹
AI
演讲
大模型
大模型推理能力增强方法总结
推理能力作为一种可能的“象征着真正的智慧”的能力,在过去的几年里兴许不是被探索和
研
究得最多的,但肯定是被讨论得最为热烈的。
推理能力
大模型
大模型
如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
此前,DataLearner曾经从理论上给出了大模型显存需求的估算逻辑,详细说明了大模型在预训练阶段、微
调
阶段和推理阶段所需的显存资源估计(参考:需要多少GPU显存才能运行预训练大语言模型?
大模型
<
...
7
8
9
10
11
12
13
14
15
16
...
>
1
2
4
5
6
7
8
9
100