首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 小学生都能看懂的 Prompt 高级技巧: Few-Shots 、 COT 、 SC、 TOT 、 Step-Back
· 第一性原理以及第一性原理是怎么帮马斯克成为首富的
· 深入探秘:百川7B大模型的训练代码解析,揭秘巨无霸语言模型背后的奥秘
· 知识树:一个方法,教你构建「终身知识体系」
· AI生成卡通人物项目|VToonify
· 大模型检索增强生成(RAG)高质量报告
· 最强开源数字人对口型系统介绍
· 大模型评测新思路:弱智吧精华问题大全
· 全量免费的EMO模型上架通义APP,外媒称之为Sora之后最受期待的大模型之一
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
写作
AI写作不如意?万字长文深度剖析背后原因
如果你只有纯粹的解释性内容,像维基百科文章那
样
,它听起来会明显像机
器
人写的。
AI写作
大模型
深度对比丨探索LLM(大模型)部署服务的七大框架差异
· · 高吞吐量服务——各种解码算法,包括并行
采
样
、beam搜索等。
大模型
开源
向量数据库简介和5个常用的开源项目介绍
这允许基于语义或上下文相关性的搜索,而不是像传统数据库那
样
仅仅依赖于精确匹配或设置标准。
开源模型
Agent
AI Agent行业深度:框架拆解、应用方向、应用领域及相关公司深度梳理!
其框架结构是怎
样
的?
AI
Agents
大模型
Agent
AI Agent行业深度:框架拆解、应用方向、应用领域及相关公司深度梳理
其框架结构是怎
样
的?
AI
Agent
大模型
人工智能
Prompt
一种通用的 Prompt 框架 - CRISPE
提示工程:基础要点 使用直接明确的语言 要求模型像专家一
样
行事 要求模型扮演特定的人物或一组人 要求模型以“逐步”
Prompt
提示词工程
Sora
深度|万字访谈!Open AI Sora作者,亲自揭秘Sora原理,Sora能带我们通往AGI吗?
我们希望 Sora是一个世界模拟
器
,以模拟真实世界的物理规律。
Sora
原理
查理·芒格 :关于人生的13个忠告
对于复杂的适应系统以及人类的大脑而言,如果
采
用逆向思考,问题往往会变得更容易解决。
人生箴言
查理芒格
大模型
垂直领域大模型的思考
4:1;指令的动作也非常多
样
,包括写作,设计,创造等;指令之间的相似度也不高,长度分布也较合理 · 质量可接受:
采
样
标注生成的数据可以发现92%的指令都有意义,尽管输入和输出的质量不是很高,
垂直领域
大模型
工具
RAG 与 Finetuning,谁是提升 LLM 的最佳工具?
微调:这是
采
用预先训练的 LLM 并在较小的特定数据集上对其进行进一步训练的过程,以使其适应特定任务或提高其性能。
训练
大模型
百川智能正式发布130亿参数通用大语言模型百川大模型(Baichuan-13B-Base)
更高效的推理:为了支持更广大用户的使用,我们本次同时开源了 int8和 int4的量化版本,相对非量化版本在几乎没有效果损失的情况下大大降低了部署的机
器
资源门槛,可以部署在如 Nvidia3090这
样
的消费级显卡上
大模型
中文
微信向量检索分析一体化数仓探索:OLAP For Embedding
在调研对 ClickHouse 对向量检索/加工能力时,我们惊讶地发现, 现代 OLAP 数仓已具在其内部独立搭建 CLIP 等主流机
器
学习模型的数据处理全流程能力 (图 1),包含 embedding
OLAP
For
Embedding
一体化数仓
目前大语言模型的评测基准有哪些?
评分结果通过用户投票产生,系统每次会随机选择两个不同的大模型机
器
人和用户聊天,并让用户在匿名的情况下选择哪款大模型产品的表现更好一些。
人工智能评测
大模型
大模型
大模型训练为什么用A100不用4090
当然,
采
用更优的并行切分方式可以节约一些网络通信开销。
大模型
Transformer
万字长文震撼来袭!揭秘Transformer——吐血解读自注意力机制的革命性突破
这种固有的顺序性质排除了训练
样
本内的并行化,这在序列长度较长时变得至关重要,因为内存限制会限制跨
样
本的批处理。
Transformer
大模型
<
...
38
39
40
41
42
43
44
45
46
47
...
>
1
2
4
5
6
7
8
9
100