首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 最强国产开源多模态大模型MiniCPM-V:可识别图片、视频,还可在端侧部署
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
· 【Stable Diffusion操作升级】Stable Diffusion 常用模型下载与说明
· 包阅AI-免费AI阅读翻译神器!
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· 大模型评测新思路:弱智吧精华问题大全
· 精通结构化提示词:如何精确操控指令的作用域与优先级
· 小白设计师福音:Stable Diffusion 16款插件测评,好用不?推荐吗?
· LangChain手册(Python版)11模块:提示模板
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
盘古
华为盘古画画3.0发布 | PanGu-Draw:业界最大的中文文生图模型,效果YYDS!
图1显示了两种现有的
训
练
策略:(a)级联
训
练
,使用三个模型来逐步提高分辨率,数据效率高,但
训
练
和推理时间增加了三倍。
PanGu-Draw
文生图
CodeGeeX2来了!效果超LLaMA2-70B
由于代码安全性,很难使用 Github Copilot 去 AI 生成,发现清华发布了「CodeGeeX2」,基于 ChatGLM2-6B 基座模型,CodeGeeX2-6B 进一步经过了 600B 代码数据预
训
练
CodeGeeX2
开源模型
医疗
惊艳!2.77亿参数锻造出Agent+GPT-4V模型组合,领航AI领航机器人、游戏、医疗革新,通用智能时代你准备好了吗?
2.77亿参数、1340万帧视频
训
练
数据,背后蕴含着怎样的技术秘密?
Agent+GPT-4V
大模型
开源
F5-TTS:上海交大开源超逼真声音克隆TTS,告别ElevenLabs,以后就用它了!实测真的很牛
不需要复杂的设计如持续时间模型、文本编码器和音素对齐,能够快速
训
练
并实现实时因素(RTF)0.15的推理速度,显著优于当前基于扩散的TTS模型。
F5-TTS
音频克隆
大模型
HalluQA: 测测中文大模型有没有一本正经胡说八道
第一类幻觉是模型会错误地模仿预
训
练
语料中的行为或判断,而这些行为或判断是与真实世界不一致的。
大模型
中文大模型
幻觉
ChatGLM
手把手带你微调一个自己的 ChatGLM2-6B 模型
ChatGLM2-6B 使用了 GLM 的混合目标函数,经过了 1.4T 中英标识符的预
训
练
与人类偏好对齐
训
练
,评测结果显示,相比于初代模型,ChatGLM2-6B 在 MMLU(+23%)、
ChatGLM2-6B
OpenAI
马斯克怒告OpenAI案解密:Ilya看到了什么?125万亿参数Q*细节曝光,53页PDF全网疯转
Ilya做出的突破,使OpenAI不再受限于获取足够的高质量数据来
训
练
新模型,而这,正是开发下一代模型的主要障碍。
OpenAI
大模型
大模型
大模型微调方法总结
但是随着预
训
练
语言模型越来越大,这个范式存在以下问题: ● 当我们 finetune 大模型时,由于
训
练
成本太高,不太可能重新
训
练
所有模型参数 ● 以前的方法(论文发表于 2021 年)都或多或少有其它性能问题
开源模型
开源
开源大语言模型完整列表
基于预
训
练
+ 持续微调的学习策略融合大规模普通文本和多种对话数据
训
练
而成,充分利用
训
练
语言模型语言能力和知识,高效构建强大的对话模型。
开源模型
大语言模型
OCR
【重磅推荐】PaddleOCR:超越人眼识别率的AI文字识别神器!
6.
训
练
定制:PaddleOCR支持用户根据自己的需求进行模型
训
练
和定制,满足特定场景下的OCR需求。
PaddleOCR
文字识别
大模型
垂直领域大模型的一些思考及开源模型汇总
训
练
方法:基于Llama-7B模型,采用Lora方法进行模型
训
练
。
垂直领域
大模型
开源模型
汇总
大模型
从零开始学习大模型-第一章-大模型简介
数据需求高:为了有效
训
练
这些模型,需要大量的
训
练
数据。
大模型
从零开始
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
训
练
数据以英文为主,不包含中韩日文,所有
训
练
数据都是开源的,分词之后大约有1400B的tokens。
大模型
微软
BGE M3-Embedding:智源最新发布的text embedding模型,多语言检索效果超过微软跟openai
2 BGE M3-Embedding 2.1
训
练
数据构建 M3-Embedding的
训
练
用了非常庞大且多样化的多语言数据集,
BGE
M3-Embedding
多语音检索
ChatGPT
2万字大模型调研:横向对比文心一言、百川、Minimax、通义千问、讯飞星火、ChatGPT
、
训
练
卡顿、无
训
练
日志 略 2023-9-27
大模型
调研
<
...
13
14
15
16
17
18
19
20
21
22
...
>
1
2
4
5
6
7
8
9
100