首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· ComfyUI官方使用手册【官网直译+关键补充】
· “大模型+机器人”的现状和未来,重磅综述报告来了!
· 长窗口大战要终结了?谷歌魔改Transformer,推出了“无限注意力”
· Stable Diffusion 30种采样器全解!
· 教会AI画汉字(ComfyUI篇)
· 腾讯出品!开源AI数字人框架!号称可以不限时长
· GPU 性能(数据表)快速参考
· WeChatpy:Python中优秀的微信开发库,与微信官方接口交互的工具
· Suno音乐新手指南(手把手完整版教程)
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
请以“续航”为题目,写一篇议论文
要善于学习和思考,不断提升自己的
知
识
和技能。
中文
训练
大模型
大模型
大模型评测新思路:弱智吧精华问题大全
本文发现,在 CQIA 子集上训练的模型在人类评估以及
知
识
和安全基准方面取得了具有竞争力的结果。
弱智吧
训练数据集
GPTs
智能时代的变革者:定制化GPTs重塑未来的五大预言
这不仅促进了
知
识
的共享,还鼓励了跨领域的协作。
GPTs
智能
大模型
真超越了GPT?国产大模型实用场景横评②
对于不联网的模型,我们让它们介绍iPhone X,这款手机的基础
知
识
在大多数模型训练的期限之内。
大模型
超越Claude-2.1和GPT-3.5-Turbo,Qwen1.5还藏了哪些黑科技?32K Tokens上下文支持只是开胃菜!
在MMLU、C-Eval等
知
名数据集上,Qwen1.5大显身手,尤其72B版本,更是远超Llama2-70B。
Qwen1.5
开源模型
大模型
大模型微调方法总结
在预训练模型每一层(或某些层)中添加 Adapter 模块(如上图左侧结构所示),微调时冻结预训练模型主体,由 Adapter 模块学习特定下游任务的
知
识
。
开源模型
换脸
StableDiffusion使用Roop插件一键换脸教程
3.进入到WebUI的插件界面安装Roop 点击WebUI的扩展标签——选择从网址安装(Install From URL)——将Roop的地址粘贴到仓
库
网址的位置——点击安装。
AI换脸
Github
GitHub上的RPA小工具,可以将重复、繁琐的任务自动化
PyAutoGUIPyAutoGUI PyAutoGUI是一个Python
库
,可以通过程序控制鼠标和键盘。
RPA
自动化
提示词
提示词框架:BROKE
这样,OKR 就帮你清晰地
知
道你想要达到什么目标,以及为了达到这个目标你需要做些什么。
BROKE
提示词
Prompt
80多个罕见的论文prompt,让你起飞!
三、提示校对 虽然 可能无法取代人工校对,但它可以帮助您
识
别写作中的语法错误、尴尬的措辞或不一致之处。
prompt
提示词
论文
伦敦出租车司机的遭遇,暗示了程序员的未来
然后Uber来了,手机+GPS让最短路径规划变成一件任何人都唾手可得的事情,突然之间,“The knowledge” 不再是有价值的专业
知
识
了,任何有驾照的人都可以进入这个行业。
人工智能
伦理
OCR
中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
)这一多模态
识
别与推理能力的硬性指标上,MiniCPM-V 2.0 更有亮眼的表现,在精准
识
别图片中物体的同时,对包括古文字在内的文字符号的
识
别迎来了史诗级加强。
MiniCPM
大模型
ChatGPT
什么是ChatGPT?
比如还有
识
别类的(Congnition):人脸
识
别,车牌
识
别这些,还有语音
识
别,文字
识
别各种
识
别任务。
ChatGPT
OpenAI
大模型
拒绝996,想出海赚美元?这7个GPT方案绝对靠谱!
分享你的
知
识
和心得,吸引全球的读者。
ChatGPT
写作
工具
HAI-Chat:高效且轻量的一键式 RLHF 训练工具
众所周
知
,RLHF 三阶段分别是:有监督微调(SFT),奖励模型(RM)与近端策略优化(PPO)。
HAI-Chat
RLHF
<
...
34
35
36
37
38
39
40
41
42
43
...
>
1
2
4
5
6
7
8
9
100