首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 读取大脑重建高清视频,Stable Diffusion还能这么用
· AI绘画 | Midjourney高质量肖像提示词的写法(附50+肖像提示词prompt)
· 百度智能云的Prompt模板
· stable diffusion API 调用,超级详细代码示例和说明
· 你要牢记的四个常用AI提示词框架:ICIO、CRISPE、BROKE、RASCEF,有助于获取更加稳定和高质量的内容
· 产品运营全流程SOP
· 测评了8个国产AI大模型,差点崩溃……
· 阿里AI黑科技大揭秘:从通义千问到FaceChain,让图片和视频焕发新生!
· 产品经理必会的3大流程:业务流程、功能流程、页面流程(附案例)
· 国产视频制作之光-可灵:提示词大全整理
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
最新最全的开源中文大语言模型列表
OpenChineseLLaMA: 地址:https://github.com/OpenLMLab/OpenChineseLLaMA 简介:基于 LLaMA-
7B
大模型
OCR
中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
面壁智能发布的第一代 2B 旗舰端侧大模型 MiniCPM,不仅超越了来自「欧洲版 OpenAI」Mistral 的性能标杆之作,同时整体领先于 Google Gemma 2B 量级,还越级超越了一些业内标杆的
7B
MiniCPM
大模型
超越Claude-2.1和GPT-3.5-Turbo,Qwen1.5还藏了哪些黑科技?32K Tokens上下文支持只是开胃菜!
# 以前的用法 model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-
7B
-Chat
Qwen1.5
开源模型
大模型
什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
ChatGLM-6B, LLaMA-
7B
模型分别是60亿参数量和70亿参数量的大模型,基本可以处理所有NLP任务,效果好,但大模型部署成本高,需要大显存的GPU,并且预测速度慢,V100都需要1秒一条。
大模型
大模型
元象首个多模态大模型 XVERSE-V 开源,刷新权威大模型榜单,支持任意宽高比输入
XVERSE-V 性能优异,在多项权威多模态评测中超过零一万物Yi-VL-34B、面壁智能OmniLMM-12B及深度求索DeepSeek-VL-
7B
等开源模型,在综合能力测评MMBench中超过了谷歌
XVERSE-V
多模态大模型
开源
Llama 3突然来袭!开源社区再次沸腾:GPT-4级别模型可以自由访问的时代到来
8B模型在MMLU、GPQA、HumanEval等多项基准上均胜过Gemma
7B
和Mistral
7B
Instruct。
meta
llama3
大模型
MindChat心理大模型
模型列表 模型名称 合并后的权重 MindChat-InternLM-
7B
ModelScope
心理大模型
Google
再超Transformer!Google| 提出两个新模型(Griffin、Hawk),强于Mamba,更省资源
//arxiv.org/pdf/2402.19427.pdf 研究者表示,Hawk 和 Griffin 在 held-out 损失和训练 FLOPs 之间表现出了幂律缩放,最高可以达到
7B
transformer
训练
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
按照模型参数量,LLaMA模型有
7B
、13B、33B、65B这四个不同参数规模的模型版本。
大模型
开源
开源语音大语言模型来了!阿里基于Qwen-Chat提出Qwen-Audio!
Qwen-Audio是一个以音频和文本输入为条件的多任务语言模型,扩展了Qwen-
7B
语言模型,通过连接单个音频编码器有效地感知音频信号。
大模型
语音
微调
Qwen7b微调保姆级教程
通过借鉴FastChat对各种开源LLM模型进行数据预处理方法统一管理的方法,因此本范例适用于非常多不同的开源LLM模型,包括 Qwen-
7b
-Chat,Llama-13b-chat
Qwen7b
大模型
OpenAI
被低估的面壁:打造出不输 OpenAI 的 Scaling Law 曲线
2024 年 2 月,面壁发布 MiniCPM 2B,在更小参数量的基础上实现可以媲美 Mistral-
7B
的性能,初步验证了其“低参数、高性能”的方法论。
Grok-1
开源模型
大模型
大模型RAG检索增强问答如何评估:噪声、拒答、反事实、信息整合四大能力评测任务探索
三、实验设置 在对比模型上,选用ChatGPT , ChatGLM-6B , ChatGLM2-6B , Vicuna-
7b
-v1.3 , Qwen-
7B
- Chat , BELLE-
7B
-2M
大模型
RAG检索增强
大模型
大模型评测新思路:弱智吧精华问题大全
下图 4 显示了 CQIA 和其他 5 个基线(即 Yi-6B-Chat、Baichuan2-
7B
-Chat、ChatGLM2-6B、Qwen-
7B
-Chat 和 InternLM-
7B
-Chat)的逐对比较人类评估结果
弱智吧
训练数据集
大模型
大模型微调经验汇总---LLM finetuning 踩坑经验之谈
当然 MPT-
7B
-StoryWriter-65k+ 模型也有较长的外推能力,主要在于,注意力这块使用了 ALIBI 。
大模型
人工智能
<
1
2
3
4
5
6
7
8
9
>
1
2
4
5
6
7
8
9
100