首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 【工具书】文生图Midjourney最全prompt提示词分类对照表
· ComfyUI官方使用手册【官网直译+关键补充】
· 谈Agent构建平台的设计
· AI音乐热潮下,“神曲工作室”率先失业
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· 最强国产开源多模态大模型MiniCPM-V:可识别图片、视频,还可在端侧部署
· 2024!深入了解 大语言模型(LLM)微调方法(总结)
· OpenAI Sora视频生成模型技术报告中英全文+总结+影响分析
· 提高写作能力的90个prompt大全
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Ollama 与 Dify:AI 应用开发的强强联合
Ollama 是一个本地推理框架,允许开发人员轻松地在本地部署和运行 LLM,例如
Llama
3、Mistral 和 Gemma。
Ollama
Dify
大型语言模型
大模型
如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
但是,我们再估算一下MetaAI发布的LLaMA2-7B的结果,LaMA2-7B模型在不同精度下的训练和推理的显存需求结果如下: 而根据网络上大家讨论的内容,
llama
-2-7b-chat载入大概需要
大模型
baichuan2 有什么好的 深挖论文中涉及的知识点
LLaMA
是由元宇宙开发的一系列大语言模型,具有高达 650 亿个参数,通过完全开源,极大地有益于 LLM 研究社区。
大模型
大模型
Stability AI开年首个大模型:专写代码,支持18种编程语言,上下文100K,苹果笔记本离线就能跑
Stable Code 3B整体架构类似于
LLaMA
,是一个仅解码器模型,使用Flash Attention 2算法。
Stability
AI
大模型
大模型
深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型
3.1、与
Llama
2 70B 和 GPT-3.5 的性能大比拼 Mistral AI 的 Mixtral 8x7B 不仅加入了这场技术竞赛,还直接挑战了业界的领军模型。
开源模型
Mixtral
8x7B
大模型
CLiB中文大模型能力评测榜单(持续更新)
清华大学&智谱AI 开源 https://github.com/THUDM/ChatGLM-6B belle-
llama
大模型
人工智能评测
大模型
国内AI大模型已近80个,哪个最有前途?
并没有直接照抄
LLaMA
的架构,而是做了很多工程上的优化。
大模型
提示词
震撼!AI语言模型突破瓶颈,26个提示词原则引领GPT-4响应质量飙升57.7%!你的模型还在等什么?
而Meta的
LLaMA
系列和Chinchilla则告诉我们,小模型也能有大作为,效率同样重要。
语言模型
提示词
GPT-4
大模型
基于Ollama本地部署谷歌开源Gemma大模型!
Gemma7B在基准测试上明显超过了
Llama
-2 7B和13B,无论是科目问答,推理性能,数学能力还是代码能力都要比
Llama
-2强太多(这里的数据是基于关键基准上测试的)。
ollama
gemma
qwen
大模型
姜子牙大模型系列 | 为知识检索而生,Ziya-Reader开源,多个长文本中文任务第一
图3 通用能力大幅超越Ziya-
Llama
-v1.1 另外,Ziya-Reader的通用能力同样出色。
大模型
Ziya
大模型
大模型训练为什么用A100不用4090
LLaMA
2 70B 训练需要 1.7M GPU hours(A100),要是用 1 个 GPU,那得算 200 年。
大模型
大模型
OCR终结了?旷视提出可以文档级OCR的多模态大模型框架Vary,支持中英文,已开源!
受语言的 LLMs 启发,纯 NLP 大模型(如
LLaMA
)从英文到中文(外语)时因为原始词表编码中文效率低,必须要扩大 text 词表。
OCR
手写
文字识别
Nvidia发布Llama3-ChatQA-1.5: 提升对话问答和表格推理能力,平均性能超越GPT-4
技术特点 Llama3-ChatQA-1.5是基于
Llama
-3基础模型训练而成的。
Llama3-ChatQA-1.5
对话问答模型
大模型
国内法律类大模型介绍
Lawyer
LLaMa
(2023-05-24) * 基础模型:Chinese-Alpaca-Plus-13B  
法律
大模型
LLM
现在LLM 的大小为什都设计成6/7B、13B和130B几个档次?
后面的
llama
也是为了对标GPT3,不过为了证明效果更好,也在中间多了33B和65B规模。
大模型
<
...
2
3
4
5
6
7
8
9
10
11
>
1
2
4
5
6
7
8
9
100