首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 使用这个工具后,我将 RAG 的准确性和召回率都提高了两倍!
· 硬核解读Stable Diffusion(系列三)
· 大模型狂飙两年后,“六小龙”开始做减法
· ChatGPT写论文指令全集
· 微软研究团队:Sora核心技术及未来机会研究报告-中英对照版
· AI绘画:InstantID Win11本地安装记录!
· 这个数字人开源项目太牛了,非常全面的项目解决方案(含源码)
· 你要牢记的四个常用AI提示词框架:ICIO、CRISPE、BROKE、RASCEF,有助于获取更加稳定和高质量的内容
· 通俗解读大模型微调(Fine Tuning)
· RAG检索增强技术在知识库智能检索场景下的应用实践
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
人工智能
2023
年
人工智能行业
总
结
(精简版)
在2023
年
,AI领域经历了诸多变革,仿佛释放了过去十几
年
的积累。
人工智能
行业总结
用AI轻松玩转
年
度
总
结
PPT
嗨,各位办公室、行政部、HR 的小伙伴们 岁末
年
初,辛苦工作了快一
年
的你,是否又开始了一项重要工作 那就是
年
度工作
总
结
!
PPT
年终总结
人工智能
2023
年
人工智能行业
总
结
这一
年
中,AI领域经历了众多的变革,仿佛将过去十几
年
的积累在一夜之间彻底释放。
人工智能
AGI
思考总结
ChatGPT
ChatGPT提示工程 -
总
结
拿印度来说,1900
年
,该国人口的预期寿命为24岁,而美国为49岁。
GPT
大模型
大模型微调方法
总
结
但是随着预训练语言模型越来越大,这个范式存在以下问题: ● 当我们 finetune 大模型时,由于训练成本太高,不太可能重新训练所有模型参数 ● 以前的方法(论文发表于 2021
年
)都或多或少有其它性能问题
开源模型
SDXL
总
结
些SDXL出人像时遇到的困难
这次正好在实践中学习,先不管什么章法,直接看图说话就行了,后面再逐渐
总
结
出规律。
文生图
SDXL
大模型
大模型实践
总
结
最近一段时间,我也在探索大模型相关的一些技术,下面做一个简单的
总
结
。
大模型
训练
开源
截至2023
年
5月份业界支持中文大语言模型开源
总
结
及商用协议分析
StableVicuna 十一、开源可商用的MPT系列 十二、清华大学的ChatGLM-6B和VisualGLM-6B 十三、基于RNN架构的RWKV-4-Raven-14B
总
结
大模型
ChatGPT
ChatGPT提示工程5篇合集(二):ChatGPT提示工程 -
总
结
本篇介绍一下如何对内容进行
总
结
。
prompt
提示词
教程
吴恩达Prompt教程之
总
结
图解
本篇文章是前几篇文章的
总
结
,一图胜千言,所以用如下的思维导图将吴恩达老师Prompt教程进行了梳理。
prompt
教程
吴恩达
如何从零开始训练专属 LoRA 模型?4600字
总
结
送给你!
这里的 steps 代表
总
训练步数。
训练
大模型
总
结
!大模型微调(Tuning)的常见方法
Prompt Tuning(P-tuning) Prompt Tuning 是2021
年
谷歌在论文《The Power of Scale for Parameter-Efficient Prompt
微调
大模型
大模型
大模型推理能力增强方法
总
结
推理能力作为一种可能的“象征着真正的智慧”的能力,在过去的几
年
里兴许不是被探索和研究得最多的,但肯定是被讨论得最为热烈的。
推理能力
大模型
职场及工作中常用的方法论
总
结
方法论是指导做事的基本原则,能够帮助我们快速的触及问题的核心并确定解决思路,好的方法论能让我们事半功倍,下面就
总
结
下我在阿里这几
年
学习到的部分方法论。
工作
谷歌
长窗口大战要
终
结
了?谷歌魔改Transformer,推出了“无限注意力”
在处理后续序列时,注意力查询可以从压缩内存中检索值,在最
终
的上下文输出中,Infini attention会聚合从长期记忆检索的值和局部注意力上下文。
大模型
上下文
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100