首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 耗时80小时!超详细的胎教级Stable Diffusion使用教程,看这一篇就够!
· ComfyUI官方使用手册【官网直译+关键补充】
· 国内法律类大模型介绍
· StableDiffusion模型推荐系列(功能型)
· 大模型中的Top-k、Top-p、Temperature详细含义及解释
· 必看!ComfyUI故障应对指南,让您轻松应对每一个挑战
· 建议收藏:超详细ChatGPT(GPT 4.0)论文润色指南
· AI声音克隆 | 最全最简教程(权威版)
· 本地部署操作AI抠图软件
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
OCR终结了?旷视提出可以文档级OCR的多模态大模型框架Vary,支持中英文,已开源!
但是对于密集和细粒度
感
知任务,比如文档级别的 OCR、Chart 理解,特别是在非英文场景,CLIP 表现出了明显的编码低效和 out-of-vocabulary 问题。
OCR
手写
文字识别
教程
保姆级教程:手把手教你创建GPTs角色应用
OpenAI最近结束的开发者大会(详
情
见:OpenAI发布会,千字文全面解读)上,引入了备受关注的新技术——GPTs。
GPTs
教程
开源
接私活必看的11个开源项目
农夫农闲时节去城里卖点自己家的土特产,小玩意; 书生春暖花开时登高望远,赋诗吟歌; 朝政东征西战,拓土封疆,还要勉
励
农耕,创办科举。
私活
开源项目
ChatGPT
ChatGPT+文字转视频工具,让1个人1天轻松生产100条原创视频(内附全部工具)
只要你具备一定的文字敏
感
度,和内容判断力,就能快速把效率+产量拉升上来,快速通过流量更大的视频内容,获取收益。
生成式AI
对于AI,我们现阶段可以有的态度
以下的几个观点,也仅是代表我个人的一些
感
想,供给大家参考,不喜勿喷。
文生图
Midjourney
Midjourney 实现角色一致性的新方法
这个相册展示了角色不同角度和表
情
的头像。
midjourney
文生图
绘画
心理
心理健康AI应用空白:LLM评估基准震撼出炉(附Prompt模板)
所有模型在心理健康咨询场景中对同理心和对话安全的理解有限,显示出提高对细微人类
情
感
和
情
境理解的需求。
大模型
心理
职场及工作中常用的方法论总结
:(ASC)答案-
情
境-冲突; 突出忧虑式(CSA)冲突-
情
境-答案; 突出信心式:(QSCA)疑问-
情
境-冲突-答案。
工作
LangChain 的问题所在
在解决了错误后,聊天对话的整体质量很差且无趣,经过
激
烈的调试,我没有找到解决方案。
大模型
大语言模型
大模型
评论能力强于GPT-4,上交开源13B评估大模型Auto-J
作文润色,代码生成等)能够评估各类大模型在广泛场景下的对齐表现; · 它能够无缝切换两种最常见的评估范式 —— 成对回复比较和单回复评估;并且可以 “一器多用”,既可以做对齐评估也可以做 “奖
励
函数
Auto-J
大模型
大模型
微调、训练大模型概念介绍及论文笔记:Tuning系列论文笔记
提示微调:"我带女朋友去桂林旅游" 的英文翻译是___ 指令微调:翻译这句话:输入:我带女朋友去桂林旅游,输出:_______ 二者目的都是挖掘语言模型本身已掌握的知识,prompt是
激
发语言模型补全能力
训练
微调
人工智能
AI产品经理视角:如何构建人工智能产品
它鼓
励
开发人员进行整体思考,对目标产品有一个清晰的了解,并在此过程中用新的见解和输入来更新它。
大模型
产品经理
提示词
【爆肝整理】500+ AI 最佳提示词
使用 P-A-S(疼痛、
激
动、解决方案)营销论坛。
提示词
ChatGPT
如何使用ChatGPT进行写作
虽然ChatGPT能以惊人的速度产出内容,但却似乎与个人的文风不太一致,许多人
感
受到的是一种“机器化”的冷漠。
ChatGPT
写作
ChatGLM
【万字长文】LLaMA, ChatGLM, BLOOM的参数高效微调实践
[3]证明了在给定训练预算的
情
况下,即使减少模型参数量,只要增加预训练的数据大小和训练时长(更多的训练tokens数),可以达到甚至超过原始大小模型的效果。
大模型
微调
训练
<
...
13
14
15
16
17
18
19
20
21
22
...
>
1
2
4
5
6
7
8
9
100