首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· LLM大模型推理输出生成方式总结
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· 大模型:泛化即智能,压缩即一切!
· Coze多智能体(Multi-Agents)模式体验!
· 揭秘DeepSeek:一个更极致的中国技术理想主义故事
· 长窗口大战要终结了?谷歌魔改Transformer,推出了“无限注意力”
· 建议收藏:超详细ChatGPT(GPT 4.0)论文润色指南
· GitHub星数暴涨,AIPC的开源实现,用AI记录电脑一整天的使用太简单了,功能非常多!
· clone-voice:一键克隆声音,开源AI技术让声音创作更便捷、更个性化
· 实战:如何用AI Agent实现ChatGPT流程化写作,产能翻倍
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
垂直领域大模型的一些思考及开源模型汇总
数
据
:通过医学知识图谱和GPT3.5 API构建了中文医学指令
数
据
集
,
数
据
共开源9k条。
垂直领域
大模型
开源模型
汇总
开源
F5-TTS:上海交大开源超逼真声音克隆TTS,告别ElevenLabs,以后就用它了!实测真的很牛
不需要复杂的设计如持续时间模型、文本编码器和音素对齐,能够快速
训
练
并实现实时因素(RTF)0.15的推理速度,显著优于当前基于扩散的TTS模型。
F5-TTS
音频克隆
SQL
RLHF 在 Text2SQL 领域中的探索
图1 DB-GPT项目原生对话示意图 02
数
据
集
公开的 Text2SQL
数
据
集
比较多
Text2SQL
RLHF
大模型
从零开始了解AI大模型 - 技术篇:万字深度好文人话说大模型技术
其涉及的关键理论和技术如下: 无监督预
训
练
:
训
练
使用的
数
据
都是自然文本
数
据
,不需要人工针对不同任务对
数
据
打标签,因此该过程叫作“无监督预
训
练
”。
大模型
爬虫
微信搜狗爬虫WechatSogou - 从微信公众号获取文章的利器
这类库伴着官方
数
据
结构和反爬虫策略升级,随时有失效可能,请谨慎参考学习,严禁非法使用。
WechatSogou
微信
搜狗
大模型
秒懂AI-深度学习五大模型:RNN、CNN、Transformer、BERT、GPT简介
,可以处理序列
数
据
。
大模型
学习
ChatGPT
为什么国产大模型都说超越ChatGPT而体验却很拉?警惕 Goodhart law 陷阱
这时候,各家大模型就可以针对这些模型,进行专门的
训
练
,就可能会出现在测试
集
上表现很好,但可能在现实世界的其他应用场景中表现不尽人意。
ChatGPT
国产大模型
开源
Llama 3突然来袭!开源社区再次沸腾:GPT-4级别模型可以自由访问的时代到来
训
练
数
据
上看,Llama 3的
训
练
数
据
规模达到了15T tokens,全部来自于公开信息,其中5%为非英文
数
据
,涵盖30多种语言。
meta
llama3
CodeGeeX2来了!效果超LLaMA2-70B
由于代码安全性,很难使用 Github Copilot 去 AI 生成,发现清华发布了「CodeGeeX2」,基于 ChatGLM2-6B 基座模型,CodeGeeX2-6B 进一步经过了 600B 代码
数
据
预
训
练
CodeGeeX2
开源模型
大模型
中文通用大模型最全汇总
,100G预
训
练
数
据
,涵盖金融、法律、百科的领域
数
据
以及API等。
大模型
开源模型
Transformer
ViTPose+:迈向通用身体姿态估计的视觉Transformer基础模型
2.3 ViTPose的
数
据
灵活性 同预
训
练
数
据
的ViTPose在MS COCO的性能对比 在过往的实验中,使用ImageNet对编码器进行预
训
练
已经成为了一种默认设置
ViTPose+
Transformer
身体姿态
开源
中文开源OCR框架对比及介绍
开源与个性化
训
练
(☆) 首先,优图OCR不开源,除了商业化的考量,应该也涉及到自己实验室的算法专利、隐私
数
据
等,不开源属于情理之中。
OCR
大模型
人手一个编程助手!北大最强代码大模型CodeShell-7B开源,性能霸榜,IDE插件全开源
CodeShell的原始
训
练
数
据
基于自己爬取的Github
数
据
、Stack和StarCoder
数
据
集
,以及少量高质量的中英文
数
据
。
开源模型
AI编程
大模型
和大模型相关的一些术语(持续更新中)
GPT的全称,是Generative Pre-Trained Transformer(生成式预
训
练
转换器)是一种基于互联网的、可用
数
据
来
训
练
的、文本生成的深度学习模型。
大模型
人工智能
大模型
大模型微调方法总结
假设模型在任务适配过程中权重的改变量是低秩(low rank)的,由此提出低秩自适应(LoRA)方法,LoRA 允许我们通过优化适应过程中密
集
层变化的秩分解矩阵来间接
训
练
神经网络中的一些密
集
层,同时保持预先
训
练
的权重不变
开源模型
<
...
24
25
26
27
28
29
30
31
32
33
...
>
1
2
4
5
6
7
8
9
100