首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· Stable Diffusion 必装插件查缺补漏,你还有哪个没装?(下)
· Prompt屠龙术-少样本示例
· 【AI代理】扣子,开始探索多代理模式
· AI开源 - LangChain UI 之 Flowise
· ComfyUI初学者指南
· Midjourney AI绘画美女提示词分享一
· 【一步一步引导】从零详细地梳理一个完整的 LLM 训练流程
· RVC和SVC声音模型难找?推荐这个网站
· 4秒惊艳!Stable Cascade AI绘画神器,设计师和普通用户的无限创意新选择
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
构建开源多模态RAG系统
大型语言模型,如GPT-3,擅
长
生成类似人类的语言,但在提供最新或特定领域的信息方面存在限制。
RAG
大模型
Agent
AI Agent行业深度:框架拆解、应用方向、应用领域及相关公司深度梳理!
2、记忆:用有限的上下
文
长
度实现更多的记忆 记忆模块负责存储信息,包括过去的交互、学习到的知识,甚至是临时的任务信息。
AI
Agents
大模型
歪理大集合,谁也跑不了
一边发
文
一边很是写了一点“歪理邪说”,有读者说因为自定义的话语体系,逻辑抽象读起来费劲,所以先简单梳理下。
大模型
Google
再超Transformer!Google| 提出两个新模型(Griffin、Hawk),强于Mamba,更省资源
所有模型的 (i) 和 (ii) 都是相同的,但时间混合块有三个:全局多查询注意(MQA)、局部(滑动窗口)MQA 和
本
文
提出的循环块。
transformer
训练
大模型
大模型:泛化即智能,压缩即一切
如果你认同Scaling Law定律,你就应该相信通过大量不同的数据来追求
长
期的模型泛化能力比短期的通过巧妙的模型微调更重要,这个想法在机器学习先驱 Rich Sutton 《苦涩的教训》中也有所体现。
大模型
泛化
教程
用so-vits-svc-4.1进行音色转换的极简教程
这里要求切割后的音频
长
度在5-15秒左右,不能太
长
或太短。
声音
sovits
ChatGPT
Prompt全攻略(一):ChatGPT时代,什么是Prompt?
它为AI提供了完成任务的上下
文
和指令。
prompt
人工智能
目前有哪些比较成功的人工智能应用?
文
本
:也就是各种
文
字,中
文
,英
文
,数字等等都算是
文
本
输入。
生成式AI
大模型
AI人工智能大模型通用办公提示词-献给像我一样的社畜们
充当 Excel 工作表 我希望你充当基于
文
本
的 excel。
Agent
RPA终极发展方向瞄准AI Agent,超自动化智能体时代已经开启
RPA的基
本
情况很明确,这些机器人解放了员工,让他们专注于更多增值任务,并降低企业的总体成
本
。
RPA
自动化
LLM
【一步一步引导】从零详细地梳理一个完整的 LLM 训练流程
因此,最好的方式是将
长
文
章按照 seq_len(2048)作分割,将切割后的向量喂给模型做训练。
大模型
训练
大模型
什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
所以建议: 1)NLU相关的任务,用BERT模型能处理的很好,如实体识别、信息抽取、
文
本
分类,没必要上大模型; 2)NLG任务,纯中
文
任务,用ChatGLM-6B,需要处理中英
文
任务,用chinese-alpaca-plus
大模型
Prompt
大厂都在用的结构化Prompt,把写提示词变成填空题!
- author: 作者名称 - version: 版
本
:设定 Prompt 版
本
号,便于记录迭代版
本
。
prompt
大模型
大模型
大模型高效微调:🤗 PEFT 使用案例
PEFT方法仅微调少量(额外的)模型参数,显著降低了计算和存储成
本
,因为对大规模PLM进行完整微调的代价过高。
大模型
大模型
大模型微调经验汇总---LLM finetuning 踩坑经验之谈
不管是预训练还是 finetuning(微调),无论选用何种方案,都避免不了训练中产生的灾难性遗忘问题,那么怎么减少和避免这种情况的发生,也是
本
文
想讲的一个重点。
大模型
人工智能
<
...
52
53
54
55
56
57
58
59
60
61
...
>
1
2
4
5
6
7
8
9
100