首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 第一性原理以及第一性原理是怎么帮马斯克成为首富的
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· AI声音克隆 | 最全最简教程(权威版)
· ComfyUI官方使用手册【官网直译+关键补充】
· Coze多智能体(Multi-Agents)模式体验!
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· Stable Diffusion 30分钟打造AI 写真照片生成器|海马体照相馆这次真的要木得了
· 从第一性原理看大模型Agent技术
· 精通百种语言的翻译AI来了!Meta推出,免费、开源!
· 6个最佳开源TTS引擎
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
比尔盖茨最新预言:AI智能体颠覆计算机交互体验甚至软件行业
你可以使用Microsoft Word和
Google
Docs起草商业提案,但它们无法帮你发送电子邮件、分享自拍照、分析数据、安排聚会或购买电影票。
AI智能体
人工智能
人工智能大语言模型微调技术:SFT 、LoRA 、Freeze 监督微调方法
样例 2 BERT 模型是
Google
AI 研究院提出的一种预训练模型,通过预训练 + 微调的方式于多个 NLP 下游任务达到当时最先进水平,如实体识别、文本匹配、阅读理解等。
大模型
微调
大模型
深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型
经过特别调优的 Mixtral 在 MT-Bench 上取得了 8.30 的高分,不仅成为 LMSys 排行榜上最优秀的开源模型,而且通常比像
Google
(Gemini Pro) 这样的知名品牌更加出色
开源模型
Mixtral
8x7B
Sora
OpenAI Sora视频生成模型技术报告中英全文+总结+影响分析
因为现在算力越来越呈现基础设施的特征,而基础设施是各个国家的命脉,即便不考虑禁运,我国不会是唯一一个要求算力自主可控的国家,甚至每个大厂都开始想自己搞显卡或者AI专用算力卡(参考
google
、特斯拉、openAI
sora
openai
视频生成
大模型
我为什么不看好大模型行业
因为英伟达通吃是基于自身能力,而互联网企业包括
Google
,包括Facebook,包括国内的这样一些曾经被敲打过的企业,它的通吃是基于什么?
大模型
「长文」可能是目前最全的LangChain AI资源库之一
将时间戳作为信息源以证明答案的合法性•llm-lobbyist[191]:利用大型语言模型作为企业游说者•Langchain语义搜索[192]: 使用GPT3、LangChain和Python搜索和索引自己的
Google
工作
大模型
大模型实践总结
Colossal-AI(高维模型并行,如2D、2.5D、3D)、Alpa(自动并行)等 目前训练超大规模语言模型主要有两条技术路线: TPU + XLA + TensorFlow/JAX :由
Google
大模型
训练
大模型
达摩院SPACE对话大模型:知识注入与知识利用
2019 年 Microsoft 提出了 DialoGPT、2020 年
Google
提出的 Meena、2020 年 Facebook 提出的 Blender、2021 年 Baidu 提出的
大模型
大模型
中国大模型融资暗战:罗曼蒂克的快速消亡
大模型公司的一号位必须在技术上有权威才能服众,而闫俊杰就是符合这个标准的人:在深度学习和计算机视觉领域,闫俊杰发表顶级会议和期刊论文100多篇,
Google
scholar引用超过10000次。
大模型
暗战
Transformer
万字长文震撼来袭!揭秘Transformer——吐血解读自注意力机制的革命性突破
*注:在
Google
Brain工作时完成的工作。
Transformer
大模型
揭秘DeepSeek:一个更极致的中国技术理想主义故事
梁文锋:不管是
Google
实验室,还是OpenAI,甚至中国大厂的AI Lab,都很有价值的。
DeepSeek
大模型
大模型
从零开始了解AI大模型 - 技术篇:万字深度好文人话说大模型技术
1.1 关键技术原理一:Transformer模型架构 Transformer模型起源:ChatGPT的底层框架脱胎于2017年
Google
发布的Transformer模型,此模型引入了注意力机制,彻底颠覆了传统深度学习中的循环和卷积结构
大模型
Agent
AI Agent行业深度:框架拆解、应用方向、应用领域及相关公司深度梳理!
使用示例:在
google
sheet中创建上一季度损益栏、在“22年”列更新收入总值、增加一列展示平均支出;在salesforce中添加某产品为新产品、添加某人为新联系人、设置提醒在某个时间点给某人发邮件
AI
Agents
大模型
Agent
AI Agent行业深度:框架拆解、应用方向、应用领域及相关公司深度梳理
使用示例:在
google
sheet中创建上一季度损益栏、在“22年”列更新收入总值、增加一列展示平均支出;在salesforce中添加某产品为新产品、添加某人为新联系人、设置提醒在某个时间点给某人发邮件
AI
Agent
大模型
人工智能
混合专家模型 (MoE) 详解
OpenMoE: https://github.com/XueFuzhao/OpenMoE 对于开源的混合专家模型 (MoE),你可以关注下面这些: · Switch Transformers (
Google
MoE大模型
<
1
2
3
4
5
6
7
8
9
10
>
1
2
4
5
6
7
8
9
100