首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 国内外开源大语言模型一览表
· 通义听悟
· 完整ChatGLM3部署教程,支持手机和车载平台部署
· ComfyUI的特性以及安装流程
· 中文通用大模型评测基准发布,全方位解析评价维度,助你选出最优秀的模型!
· 17岁高中生写了个神级Prompt,直接把Claude强化成了满血o1。
· GPU 性能(数据表)快速参考
· 固定的“魔咒”:正负面质量标准化提示词
· 【AI绘画】入门英文名词解析
· Stable Diffusion由入门到精通
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
智源:70万预算,从头开发千亿参数大模型,挑战成功!
FLM在四个项目中取得的平均成绩接近GLM-120B和
Llama
-7B,但训练成本显著低于二者。
大模型
AIGC
朱啸虎讲了一个中国现实主义AIGC故事
朱啸虎:(此处思考了2秒……)
LLaMA
上线是非常重要的。
朱啸虎
AGI
大模型
如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
但是,我们再估算一下MetaAI发布的LLaMA2-7B的结果,LaMA2-7B模型在不同精度下的训练和推理的显存需求结果如下: 而根据网络上大家讨论的内容,
llama
-2-7b-chat载入大概需要
大模型
开源
省钱!微软开源框架LLMLingua + LlamaIndex实现提示词压缩
LLMLingua利用紧凑、经过训练的语言模型(例如GPT2-small、
LLaMA
-7B)来识别和移除提示中的非必要标记。
LLMLingua
LlamaIndex
开源框架
baichuan2 有什么好的 深挖论文中涉及的知识点
LLaMA
是由元宇宙开发的一系列大语言模型,具有高达 650 亿个参数,通过完全开源,极大地有益于 LLM 研究社区。
大模型
Ollama 与 Dify:AI 应用开发的强强联合
Ollama 是一个本地推理框架,允许开发人员轻松地在本地部署和运行 LLM,例如
Llama
3、Mistral 和 Gemma。
Ollama
Dify
大型语言模型
大模型
Stability AI开年首个大模型:专写代码,支持18种编程语言,上下文100K,苹果笔记本离线就能跑
Stable Code 3B整体架构类似于
LLaMA
,是一个仅解码器模型,使用Flash Attention 2算法。
Stability
AI
大模型
大模型
深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型
3.1、与
Llama
2 70B 和 GPT-3.5 的性能大比拼 Mistral AI 的 Mixtral 8x7B 不仅加入了这场技术竞赛,还直接挑战了业界的领军模型。
开源模型
Mixtral
8x7B
大模型
基于Ollama本地部署谷歌开源Gemma大模型!
Gemma7B在基准测试上明显超过了
Llama
-2 7B和13B,无论是科目问答,推理性能,数学能力还是代码能力都要比
Llama
-2强太多(这里的数据是基于关键基准上测试的)。
ollama
gemma
qwen
提示词
震撼!AI语言模型突破瓶颈,26个提示词原则引领GPT-4响应质量飙升57.7%!你的模型还在等什么?
而Meta的
LLaMA
系列和Chinchilla则告诉我们,小模型也能有大作为,效率同样重要。
语言模型
提示词
GPT-4
大模型
姜子牙大模型系列 | 为知识检索而生,Ziya-Reader开源,多个长文本中文任务第一
图3 通用能力大幅超越Ziya-
Llama
-v1.1 另外,Ziya-Reader的通用能力同样出色。
大模型
Ziya
大模型
CLiB中文大模型能力评测榜单(持续更新)
清华大学&智谱AI 开源 https://github.com/THUDM/ChatGLM-6B belle-
llama
大模型
人工智能评测
大模型
国内AI大模型已近80个,哪个最有前途?
并没有直接照抄
LLaMA
的架构,而是做了很多工程上的优化。
大模型
大模型
大模型训练为什么用A100不用4090
LLaMA
2 70B 训练需要 1.7M GPU hours(A100),要是用 1 个 GPU,那得算 200 年。
大模型
大模型
国内法律类大模型介绍
Lawyer
LLaMa
(2023-05-24) * 基础模型:Chinese-Alpaca-Plus-13B  
法律
大模型
<
...
2
3
4
5
6
7
8
9
10
11
...
>
1
2
4
5
6
7
8
9
100