首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 耗时80小时!超详细的胎教级Stable Diffusion使用教程,看这一篇就够!
· ComfyUI官方使用手册【官网直译+关键补充】
· 国内法律类大模型介绍
· StableDiffusion模型推荐系列(功能型)
· 大模型中的Top-k、Top-p、Temperature详细含义及解释
· 必看!ComfyUI故障应对指南,让您轻松应对每一个挑战
· 建议收藏:超详细ChatGPT(GPT 4.0)论文润色指南
· AI声音克隆 | 最全最简教程(权威版)
· 本地部署操作AI抠图软件
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
斯坦福宣布前端开发要失业了?!一张截图生成代码,64%优于原网页!
然而,尽管这些年来有许多后续尝试,但它们都局
限
于简单或合成的例子,对于真实世界的前端开发应用几乎没有用处。
设计转代码
大模型
大模型
全量免费的EMO模型上架通义APP,外媒称之为Sora之后最受期待的大模型之一
虽然通义APP上的EMO模型目前只支持有
限
的模板,但其已经成为全民免费可用的AI视频模型,上手简单、使用方便,还自带供用户进行分享的生态社区。
EMO
阿里
全民演唱
大模型
国内AI大模型已近80个,哪个最有前途?
大厂最容易出现的问题: 资源碎片化,有
限
的 GPU 资源、人才资源分散到多个互相竞争的团队,内部赛马浪费大量资源。
大模型
大模型
中国大模型融资暗战:罗曼蒂克的快速消亡
除智谱AI是鲜明人民币架构、围聚的是典型人民币基金财投和国资、政府一些产业基金外,更多时候,几家公司都要在相同的池子里争夺有
限
的钱。
大模型
暗战
混合专家模型 (MoE) 详解
在有
限
的计算资源预算下,用更少的训练步数训练一个更大的模型,往往比用更多的步数训练一个较小的模型效果更佳。
MoE大模型
【CLIP系列Paper解读】CLIP: Learning Transferable Visual Models From Natural Language Supervision
Abstract(此部分翻译为主) 当前的计算机视觉(CV)模型通常被训练用于预测有
限
的物体类别。
OpenAI
自然语言监督
ChatGPT
如何用ChatGPT创建阅读10W+爆款文章标题
开启一个循环法 命名逻辑:为什么这是+界定领域+最
极
端情况之一 优势:引发好奇心,促使读者点开了解详情。
GPT-4
大模型
九问中国大模型掌门人,万字长文详解大模型进度趋势
但由于梯度下降带来很大的不稳定性,且
极
难实现自动化。
大模型
详解
大模型
百模大战,谁是大模型的裁判员?
也有尚未进行基准评测的大模型团队,其中有受访团队提到,目前中文大模型评测基准多是MMLU路径,侧重于考验模型的知识能力,但对于想要衡量模型性能,还存在一定的局
限
性。
大模型
GPTs
刚上线就崩了?字节版 GPTs 征战国内市场:无需编码,快速创建 AI 聊天机器人
无
限
拓展的能力集 扣子集成了丰富的插件工具,可以
极
大地拓展 Bot 的能力边界。
Coze
聊天机器人
ChatGPT
OpenAI官方ChatGPT提示工程 - 最佳实践11篇(大合集)
因此,为了确保更改对效果能够产生积
极
的影响,可能有必要定义一个全面的测试套件(也称为“评估(eval)”)。
ChatGPT
大模型
开源
30 多年前被 Windows、Linux “灭掉”的操作系统 MS-DOS 4.0,微软在 GitHub 上开源了!
这使得微软从 OEM 收入中获得了无
限
的印钞机,尽管这在几年内还不会显现出来。
MS-DOS
4.0
开源模型
微软
大模型
从Langchain到ReAct,在大模型时代下全新的应用开发核心
这是因为LLM在训练的时候接触到的知识有
限
。
大模型
ComfyUI
ComfyUI初学者指南
最下面的一个与负
极
相连,所以是负
极
提示用的。
文生图
comfyui
Google
再超Transformer!Google| 提出两个新模型(Griffin、Hawk),强于Mamba,更省资源
由于对角 RNN 层受内存
限
制,研究者使用了 RG-LRU 层的内核来实现这一点。
transformer
训练
<
...
12
13
14
15
16
17
18
19
20
21
...
>
1
2
4
5
6
7
8
9
100