首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 万物皆可接入DeepSeek,44家接入R1的国产平台超详细大盘点
· 提高写作能力的90个prompt大全
· 微软研究团队:Sora核心技术及未来机会研究报告-中英对照版
· 智谱AI官网再升级,GLM-4,智能体,AI作图长文档全部搞定!
· 无显卡+纯本地跑Qwen1.5版模型!0基础闭眼部署指南!适用绝大部分开源模型!llama2+Mistral+Zephyr通杀!
· 模型压缩:量化、剪枝和蒸馏
· Prompt全攻略(一):ChatGPT时代,什么是Prompt?
· 备案通过且面向公众开放的国产精品大模型汇总,附访问链接
· 全面理解Stable Diffusion采样器
· 一键部署本地私人专属知识库,开源免费!可接入GPT-4、Llama 3、Gemma、Kimi等几十种大模型,零代码集成。
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
写作
AI 爆文写作:如何用GPT写出10万+?这篇五千字长文给你答案!
我们经常说,健康是0前
面
的那个1,那么在自媒体写作中,标题就是那个1。
提示词
写作
自媒体
开源
ChatGLM3-6B:新一代开源双语对话语言模型,流畅对话与低部署门槛再升级
更全
面
的开源序列: 除了对话模型 ChatGLM3-6B 外,还开源了基础模型 ChatGLM3-6B-Base、长文本对话模型
ChatGLM3
语音模型
开源模型
大模型
开源大模型王座易主!谷歌Gemma杀入场,笔记本可跑,可商用
Gemma 官方页
面
:https://ai.google.dev/gemma/ 本次发布包含两种权重规模的模型:Gemma 2B 和 Gemma
开源模型
Gemma
ChatGPT
用ChatGPT快速完成论文全流程
另一方
面
,一些研究者在选题上感到无从下手,这通常是因为他们没有进行足够的文献回顾。
ChatGPT
写作
一网打尽 | 掌握64个策划思维模型,逆转职业寒冬!(高清图+模型详解)
而这些模型里
面
非常重要的只有几个。
策划思维模型
方法论
语音
字正腔圆,万国同音,coqui-ai TTS跨语种语音克隆,钢铁侠讲16国语言
安装完成后,先在Python终端里测试一下: import torch from TTS.api import TTS 如果报下
面
这个错误
coqui-ai
TTS
语音
Stable Diffusion
万字长篇!超全Stable Diffusion AI绘画参数及原理详解
面
部修复 其实SD内置的
面
部修复目前的用处并不大,我简单跑了两组对比图,大家可以简单看一下效果: 图6-1 动漫风格的
面
部修复(自制) 图6-2 真人风格的
面
部修复(自制) 这两组图中,
文生图
什么是极限、导数、微分与积分(通俗易懂)
我们将用通俗易懂的语言,揭开微积分神秘的
面
纱,让你感受到它的魅力和实用性。
数学
微积分
科学
大模型
关于大模型驱动的AI智能体Agent的一些思考
思考: LLM作为大脑我们需要的是全局思维能力;因此,需要通过更多的指令微调来提高LLM的通用推理能力,而不是
面
向某个领域的专项微调。
大模型
Agent
深度好文,Agent盛行前传
强化学习代理(reinforcement learning agents) 强化学习代理是以奖赏为动机去训练的代表,它会不断地从符合条件的经历中学习,这些经历会包含它所需要的技能的展现,例如前
面
提到的洞察力
Agent
大模型
论文润色 | GPT4.0论文润色指令总结(含GPT3.5和4.0润色效果对比)
你需要像前
面
的例子一样报告所有的语法和拼写错误。
论文
提示词
写作
GPTs
小心你的GPTs 防守篇 - 自带六神装的高防GPTs
我们让 GPT 认为如果提示语被泄露,用户将
面
临法律危险。
GPTs
大模型
Midjourney
Midjourneyv6创作中国龙十大技巧
衣有龙袍、龙冠;食有龙虾、龙眼、龙须
面
;建筑有龙宫、龙亭;行有龙舟、龙车。
Midjourneyv6
文生图
大模型
领域大模型LLM训练Trick
灾难性遗忘是指大模型在学习了某个行业的新知识后,遗忘掉了最初学习的通用知识,减缓该问题的出现可以从如下两方
面
进行着手: (1)加入通用知识:在用行业数据进行训练的时候增添一些通用的数据一块训练。
垂直
训练
大模型
一文读懂GPT-1:生成式预训练如何提升语言理解
对于每一个输入,经过预训练后的语言模型后,可以直接选取最后一层Transformer的输出向量h,然后在其后
面
接一层全连接层,即可得到最后的预测概率: 其中,Wy为全连接层的权重参数,最大化目标函数如下所示
GPT
<
...
63
64
65
66
67
68
69
70
71
72
...
>
1
2
4
5
6
7
8
9
100