首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 必看!阿里通义千问完整技术报告
· MCP服务介绍及应用场景报告-来自Manus
· 复旦开源中文医疗大模型,基于百川微调,模型和数据集都公开
· 国内厂商语音识别与Whisper评测:现状与概况对比
· 实测:本地跑llama3:70B需要什么配置
· SD插件|EasyPhoto|妙鸭相机平替|美颜算法
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· Stable Diffusion教程:提示词
· 建议收藏:超详细ChatGPT(GPT 4.0)论文润色指南
· 爆火的“女孩的一生”,plus版教程它来了
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
超越Claude-2.1和GPT-3.5-Turbo,Qwen1.5还藏了哪些黑科技?32K Tokens上下文支持只是开胃菜!
# 以前的用法 model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-
7B
-Chat
Qwen1.5
开源模型
大模型
什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
ChatGLM-6B, LLaMA-
7B
模型分别是60亿参数量和70亿参数量的大模型,基本可以处理所有NLP任务,效果好,但大模型部署成本高,需要大显存的GPU,并且预测速度慢,V100都需要1秒一条。
大模型
大模型
元象首个多模态大模型 XVERSE-V 开源,刷新权威大模型榜单,支持任意宽高比输入
XVERSE-V 性能优异,在多项权威多模态评测中超过零一万物Yi-VL-34B、面壁智能OmniLMM-12B及深度求索DeepSeek-VL-
7B
等开源模型,在综合能力测评MMBench中超过了谷歌
XVERSE-V
多模态大模型
开源
Llama 3突然来袭!开源社区再次沸腾:GPT-4级别模型可以自由访问的时代到来
8B模型在MMLU、GPQA、HumanEval等多项基准上均胜过Gemma
7B
和Mistral
7B
Instruct。
meta
llama3
大模型
MindChat心理大模型
模型列表 模型名称 合并后的权重 MindChat-InternLM-
7B
ModelScope
心理大模型
Google
再超Transformer!Google| 提出两个新模型(Griffin、Hawk),强于Mamba,更省资源
//arxiv.org/pdf/2402.19427.pdf 研究者表示,Hawk 和 Griffin 在 held-out 损失和训练 FLOPs 之间表现出了幂律缩放,最高可以达到
7B
transformer
训练
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
按照模型参数量,LLaMA模型有
7B
、13B、33B、65B这四个不同参数规模的模型版本。
大模型
开源
开源语音大语言模型来了!阿里基于Qwen-Chat提出Qwen-Audio!
Qwen-Audio是一个以音频和文本输入为条件的多任务语言模型,扩展了Qwen-
7B
语言模型,通过连接单个音频编码器有效地感知音频信号。
大模型
语音
微调
Qwen7b微调保姆级教程
通过借鉴FastChat对各种开源LLM模型进行数据预处理方法统一管理的方法,因此本范例适用于非常多不同的开源LLM模型,包括 Qwen-
7b
-Chat,Llama-13b-chat
Qwen7b
大模型
OpenAI
被低估的面壁:打造出不输 OpenAI 的 Scaling Law 曲线
2024 年 2 月,面壁发布 MiniCPM 2B,在更小参数量的基础上实现可以媲美 Mistral-
7B
的性能,初步验证了其“低参数、高性能”的方法论。
Grok-1
开源模型
大模型
大模型RAG检索增强问答如何评估:噪声、拒答、反事实、信息整合四大能力评测任务探索
三、实验设置 在对比模型上,选用ChatGPT , ChatGLM-6B , ChatGLM2-6B , Vicuna-
7b
-v1.3 , Qwen-
7B
- Chat , BELLE-
7B
-2M
大模型
RAG检索增强
大模型
大模型评测新思路:弱智吧精华问题大全
下图 4 显示了 CQIA 和其他 5 个基线(即 Yi-6B-Chat、Baichuan2-
7B
-Chat、ChatGLM2-6B、Qwen-
7B
-Chat 和 InternLM-
7B
-Chat)的逐对比较人类评估结果
弱智吧
训练数据集
大模型
大模型微调经验汇总---LLM finetuning 踩坑经验之谈
当然 MPT-
7B
-StoryWriter-65k+ 模型也有较长的外推能力,主要在于,注意力这块使用了 ALIBI 。
大模型
人工智能
QWen1.5: 卓越模型之路
在此次Qwen1.5版本中,开源了包括0.5B、1.8B、4B、
7B
、14B和72B在内的6个不同规模的Base和Chat模型,并一如既往地放出了各规模对应的量化模型。
Qwen1.5
开源模型
使用BELLE项目部署bloomz模型(专业程序员精简版)
3.以LLAMA-
7b
(70亿参数)为基础,分别在60万,200万数据上进行指令微调后得到的模型Checkpoint。
belle
训练
大模型
<
1
2
3
4
5
6
7
8
9
>
1
2
4
5
6
7
8
9
100