首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 必看!阿里通义千问完整技术报告
· MCP服务介绍及应用场景报告-来自Manus
· 复旦开源中文医疗大模型,基于百川微调,模型和数据集都公开
· 国内厂商语音识别与Whisper评测:现状与概况对比
· 实测:本地跑llama3:70B需要什么配置
· SD插件|EasyPhoto|妙鸭相机平替|美颜算法
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· Stable Diffusion教程:提示词
· 建议收藏:超详细ChatGPT(GPT 4.0)论文润色指南
· 爆火的“女孩的一生”,plus版教程它来了
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
【大模型微调】 Llama 2 :对话模型的全过程微调
该项工作的作者提出 Llama 2 模型:这是经过一系列 预训练和微调的大语言模型 (LLM),其参数规模从
7B
亿到 70B 不等。
大模型
开源
开源新标杆,千问Qwen2系列模型发布,全面超越LLama3
Qwen2 系列模型包括五个尺寸的模型(Qwen2-0.5B、Qwen2-1.5B、Qwen2-
7B
、Qwen2-57B-A14B 和 Qwen2-72B),这些模型在中文和英文基础上增加了 27 种语言的高质量数据
qwen
千问
开源
大模型
ollama本地部署自然语言大模型
ensp; 安装命令 发布组织 Llama 2
7B
ollama
语言大模型
部署
大模型
阿里云开源通义千问多模态大模型Qwen-VL,持续推动中国大模型生态建设
Qwen-VL以通义千问70亿参数模型Qwen-
7B
为基座语言模型研发,支持图文输入,具备多模态信息理解能力。
大模型
教程
0基础!动手部署Qwen1.5-MoE模型!能力如何?API接入fastgpt等任何应用!喂饭到嘴教程,附模型下载!
能力超
7B
!
Qwen1.5-MoE
大模型
下载
大模型
llm-action:让天下没有难学的大模型
Alpaca full fine-turning
7B
大模型
LLM
大模型
开源大模型王座易主!谷歌Gemma杀入场,笔记本可跑,可商用
和 13B,以及风头正劲的 Mistral
7B
。
开源模型
Gemma
大模型
中文通用大模型最全汇总
Panda: 地址:https://github.com/dandelionsllm/pandallm 简介:开源了基于LLaMA-
7B
, -13B,
大模型
开源模型
大模型
中文LLaMA-2基座模型和Alpaca-2指令精调大模型-中文LLaMA-2以及Alpaca-2系列模型
text-generation-webui, LangChain, privateGPT, vLLM等LLaMA生态 目前已开源的模型:Chinese-LLaMA-2-
7B
大模型
大模型
垂直领域大模型的一些思考及开源模型汇总
Q:我是不是用开源6B、
7B
模型自己训练一个模型就够了?
垂直领域
大模型
开源模型
汇总
大模型
大模型实践总结
LLaMA-
7B
/13B/30B/65B :Meta开源的基础大语言模型。
大模型
训练
微调
NEFTune:在Embedding中加入噪⾳提⾼指令微调效果!
一.引用 在LLaMA2-
7B
这样的原始LLM中使⽤带有噪⾳嵌入进⾏微调时,其在AlpacaEval上的性能从29.8%
NEFTune
大语言模型
开源
玩一玩阿里通义千问开源版,Win11 RTX3060本地安装记录!
就是开源了一个低配版的通义千问模型--通义千问-
7B
-Chat。
通义千问
大模型
基于Ollama本地部署谷歌开源Gemma大模型!
这次发布的Gemma不仅仅只有2B 和
7B
这两种规模,实际上是发布了Gemma系列(经过预训练的变体和指令优化的变体,大大小小50多种),Gemma 模型非常适合各种文本生成任务,包括问答、总结和推理
ollama
gemma
qwen
大模型
如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
但是,我们再估算一下MetaAI发布的LLaMA2-
7B
的结果,LaMA2-
7B
模型在不同精度下的训练和推理的显存需求结果如下: 而根据网络上大家讨论的内容, llama-2-
7b
-chat载入大概需要
大模型
<
1
2
3
4
5
6
7
8
9
>
1
2
4
5
6
7
8
9
100