首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 国产视频制作之光-可灵:提示词大全整理
· SD入门教程六:ControlNet基础入门
· 大语言模型的拐杖——RLHF基于人类反馈的强化学习
· 【万字长文】LLaMA, ChatGLM, BLOOM的参数高效微调实践
· Stable Diffusion使用Roop插件一键换脸教程
· 10秒换脸,一张图片够了!SD Roop插件教程
· 九个让你成为GPT提示高手的提示词框架
· 大规模中文开源数据集发布!2TB、几十亿条可商用的中文数据集书生·万卷 1.0开源~中文大模型能力可能要更上一层楼了!
· AI绘画:stable difussion SD插件之 无限抽卡神器 dynamic prompts(动态提示词)
· 会“追问”的Agent,大模型知识库另类实践
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
ChatGLM
玩一玩ChatGLM3,1660s即可流畅运行!
我之前介绍过的千问(
Qwen
)和百川(baichuan)运行要求就是8G+显存。
大模型
ChatGLM
大模型
领域大模型-训练Trick&落地思考
而以目前各厂(ChatGLM、BaiChuan、
Qwen
、Llama)抢占开源社区占比的架势,感觉会有很多7B、13B级别模型开源。
垂直
训练
大模型
大模型
国产大模型与全球最强大模型大比拼:语义理解、数学推理同台竞技,究竟谁更厉害
而国产模型中阿里巴巴的千问大模型
Qwen
-7B和智谱AI的ChatGLM-12B也进入了前10,分别是第九和第十。
大模型
开源
Falcon 180B 开源影响了谁?
-13B-Chat与其4bit量化版本;智源的悟道3.0中的悟道・天鹰大语言模型;智谱AI的ChatGLM-6B 和 ChatGLM2-6B;面壁智能的CPM-Bee 10B;通义千问的
Qwen
大模型
大模型
回望做大模型一年后的感悟
大模型应该分为两类,一类是从头开始训练的基础模型,比如:Yi、
QWen
、Baichuan、ChatGLM、DeepSeek等等;另一类是continue pretraining和sft类别的模型。
大模型
感悟
RAG
Rerank——RAG中百尺竿头更进一步的神器,从原理到解决方案
我们还是坚持用国产大模型(如Baichuan2-13B、ChatGLM3-6B和
QWen
-14B等),毕竟主要服务的还是国内客户,加上现在接触的多数客户其实都有私有化部署的需求。
RAG
检索增强
大模型
大模型RAG检索增强问答如何评估:噪声、拒答、反事实、信息整合四大能力评测任务探索
三、实验设置 在对比模型上,选用ChatGPT , ChatGLM-6B , ChatGLM2-6B , Vicuna-7b-v1.3 ,
Qwen
-7B- Chat , BELLE-7B-2M
大模型
RAG检索增强
Deepseek-V2技术报告解读!全网最细!
in_features=5120, out_features=102400, bias=False) ) 我们从上往下,从embedding层的维度来看,与Gemma, LLaMA和
Qwen
Deepseek-V2
大模型
OCR
中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
其中在 OpenCompass 榜单中,综合 11 个主流评测基准的结果表明,MiniCPM-V 2.0 的通用多模态能力超越了
Qwen
-VL-Chat-10B、CogVLM-Chat
MiniCPM
大模型
大模型
金融行业的开源AI大模型
FinGPT集成了多个模型,如Llama-2、Falcon、MPT、Bloom、ChatGLM2、
Qwen
和InternLM,每个模型都针对特定的语言市场和金融分析任务进行了优化。
开源
大模型
<
1
2
3
>
1
2
4
5
6
7
8
9
100