首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· AI高手都在用的10个提示词prompt网站,建议收藏!
· 大模型业务应用中数据准备的要求、难点及解决思路
· 一文搞定 ComfyUI SDXL1.0 完整流程
· Prompt小技巧(18):万能Prompt
· 比 Roop 和 Reactor 更像!IP Adapter 新模型为任何人做写真
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· 大模型狂飙两年后,“六小龙”开始做减法
· Examful.ai
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
· AI音乐热潮下,“神曲工作室”率先失业
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
ChatGPT
清华智能体「XAgent」比ChatGPT4.0还好用!
作为回应,XAgent 迅速启动了下载 IMDB 数据集的过程,以训练一款先进的
BERT
模型。
ChatGPT
智能体
Agent
大模型
大模型高效微调:🤗 PEFT 使用案例
Prompt Tuning IA3
BERT
大模型
大模型
微调、训练大模型概念介绍及论文笔记:Tuning系列论文笔记
鲁棒性和泛化能力也有比较好的提升 整体论文没啥创新点,主要实验多 P-tuning GPT Understands, Too Motivation 1 GPT系列AR建模在自然语言理解NLU任务上效果不好,与
BERT
训练
微调
大模型
从零开始学习大模型-第一章-大模型简介
例如,OpenAI的GPT系列、Google的
BERT
和T5、OpenAI的DALL·E等,这些模型在语言理解、文本生成、图像生成等方面展现出了惊人的能力。
大模型
从零开始
提示词
震撼!AI语言模型突破瓶颈,26个提示词原则引领GPT-4响应质量飙升57.7%!你的模型还在等什么?
从Google的
BERT
到GPT系列,它们一步步颠覆了我们对机器理解语言的认知。
语言模型
提示词
GPT-4
大模型
最新大模型面经+感受,4家大厂offer!
了解
bert
和gpt网络结构的细节及其差异吗?
大模型
面试
大模型
从零开始了解AI大模型 - 概念篇:一文带你走进大模型世界
紧接着,同年10月,Google推出了基于Transformer Encoder的
Bert
,在相同的参数规模下,其效果一度超越了GPT1,成为自然语言处理领域的佼佼者。
大模型
LLM
一文探秘LLM应用开发-Prompt(相关概念)
当时,大部分企业和研究者选择了基于
bert
来解决nlp任务,相关
bert
的研究也是非常的多,网络上关于PLM(预训练大模型)的内容,百分之八十都是与此相关的。
prompt
大模型
大模型
释放潜能:大模型与企业微信SCRM系统的完美结合
• 大模型结合:通过利用大规模的数据和计算资源,训练出具有强大的自然语言理解和生成能力的人工智能模型,如GPT-3、
BERT
等,为SCRM提供更智能和创新的功能,如内容生成、意图识别
SCRM
大模型
大模型
总结!大模型微调(Tuning)的常见方法
return_dict=True) model = get_peft_model(model, peft_config) GPT在P-tuning的加持下可达到甚至超过
BERT
微调
大模型
深入浅出:大语言模型中必不可少的技术——Embedding简介
例如,
BERT
、ELMo和GPT等大型语言模型可以生成上下文相关的embedding表示,这些embedding可以更好地捕捉单词的语义和上下文信息。
embedding
人工智能
人工智能大语言模型微调技术:SFT 、LoRA 、Freeze 监督微调方法
样例 2
BERT
模型是 Google AI 研究院提出的一种预训练模型,通过预训练 + 微调的方式于多个 NLP 下游任务达到当时最先进水平,如实体识别、文本匹配、阅读理解等。
大模型
微调
LLM
【一步一步引导】从零详细地梳理一个完整的 LLM 训练流程
bert
-base-chinese tokenizer 可视化 上述图片来自可视化工具 [tokenizer_viewer]。
大模型
训练
LLM
2023年LLM如何入门?请看这篇综述!
补充一点有趣的,当参数规模超过一定水平时,这些扩大的语言模型不仅可以实现显著的性能提升,还表现出一些特殊的能力,比如上下文学习能力等等,这是小规模语言模型(例如
BERT
)所没有的,这种现象被称为涌现Emergence
大模型
大模型
OCR的终极解法——传统算法VS多模态大模型
· Google的
BERT
: 虽然
BERT
本身是文本处理模型,但它的变种可以扩展到多模态任务
OCR
大模型
文字识别
<
1
2
3
4
5
>
1
2
4
5
6
7
8
9
100