首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 读取大脑重建高清视频,Stable Diffusion还能这么用
· AI绘画 | Midjourney高质量肖像提示词的写法(附50+肖像提示词prompt)
· 百度智能云的Prompt模板
· stable diffusion API 调用,超级详细代码示例和说明
· 你要牢记的四个常用AI提示词框架:ICIO、CRISPE、BROKE、RASCEF,有助于获取更加稳定和高质量的内容
· 产品运营全流程SOP
· 测评了8个国产AI大模型,差点崩溃……
· 阿里AI黑科技大揭秘:从通义千问到FaceChain,让图片和视频焕发新生!
· 产品经理必会的3大流程:业务流程、功能流程、页面流程(附案例)
· 国产视频制作之光-可灵:提示词大全整理
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
基于Ollama本地部署谷歌开源Gemma大模型!
这次发布的Gemma不仅仅只有2B 和
7B
这两种规模,实际上是发布了Gemma系列(经过预训练的变体和指令优化的变体,大大小小50多种),Gemma 模型非常适合各种文本生成任务,包括问答、总结和推理
ollama
gemma
qwen
大模型
聊天大模型的输出速度应该是多少?单张显卡最多可以支持多少个人同时聊天?来自贾扬清最新的讨论~
根据贾扬清的测试,LLaMA2-
7B
在A10显卡上单次请求下,每秒可以生成40个tokens(约30个单词),完全超出了人类的阅读需求。
大模型
大模型
如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
但是,我们再估算一下MetaAI发布的LLaMA2-
7B
的结果,LaMA2-
7B
模型在不同精度下的训练和推理的显存需求结果如下: 而根据网络上大家讨论的内容, llama-2-
7b
-chat载入大概需要
大模型
开源
国内外开源大语言模型一览表
百川 Baichuan-
7B
https://github.com/baichuan-inc/baichuan-
7B
https://huggingface.co/baichuan-inc
大模型
大模型
8G显存一键训练,解锁Llama2隐藏能力!XTuner带你玩转大模型
例如,在使用 oasst1 数据集微调 Llama2-
7B
时,数据拼接后的训练时长仅为普通训练的 50% 。
大模型
Github
8月份最火的 5 个 GitHub 项目
开源地址:https://github.com/binjie09/one-api 05 通义千问 基于 ModelScope 以及 Hugging Face均开源的 Qwen-
7B
系列模型
下载
手把手!做Llama3的MoE专家混合模型!底层原理怎样的?做自己的MoE模型?需要多少算力?
上图表示有三名专家,示意如何将 Mistral-
7B
转换为具有稀疏 MoE 层(前馈网络 1、2 、 3)和路由 MoE!
MoE
专家混合模型
大模型
Stability AI开年首个大模型:专写代码,支持18种编程语言,上下文100K,苹果笔记本离线就能跑
性能方面,Stable Code 3B规模比CodeLLaMA
7B
小60%,但性能却大差不差。
Stability
AI
大模型
大模型
开源大模型部署及推理所需显卡成本必读:也看大模型参数与显卡大小的大致映射策略
例如:Meta 开发并公开发布的 Llama 2 系列大型语言模型 (LLM),这是一组经过预训练和微调的生成文本模型,参数规模从 70 亿(
7b
)
开源模型
ChatGLM
【万字长文】LLaMA, ChatGLM, BLOOM的参数高效微调实践
按照模型参数量,LLaMA模型有
7B
、13B、33B、65B这四个不同参数规模的模型版本。
大模型
微调
训练
baichuan2 有什么好的 深挖论文中涉及的知识点
的性能比 Baichuan 1-
7B
高出近 30%。
大模型
阿里
本地运行140亿参数,阿里千问玩起来!Qwen+Win11+3060
7B
大概在一个月前发布,这次发布了14B版本。
大模型
大模型
微调百川Baichuan-13B保姆式教程,手把手教你训练百亿大模型
此前我们也使用Firefly项目对Baichuan-
7B
进行指令微调,并且发布了firefly-baichuan-
7b
模型,详见文章:Firefly|百川baichuan-
7B
实测,QLoRA+百万指令数据微调
大模型
微调
开源
开源大语言模型完整列表
开源 LLM 通义千问-
7B
—— 基于 Transformer 的大语言模型 通义千问 -
7B
(Qwen-
7B
) 是阿里云研发的通义千问大模型系列的 70 亿参数规模的模型。
开源模型
大语言模型
科大讯飞
哈工大科大讯飞联合推出中文LLaMA-2 & Alpaca-2大语言模型
, text-generation-webui, LangChain, vLLM等LLaMA生态 目前已开源的模型:Chinese-LLaMA-2-
7B
训练
<
1
2
3
4
5
6
7
8
9
>
1
2
4
5
6
7
8
9
100