首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 文生图提示词prompt详解
· ModelScope(一站式开源的模型即服务共享平台)的简介、安装、使用方法之详细攻略
· AIGC生成客服虚拟人
· 使用stable diffsion对老照片进行AI高清放大修复
· 实测:本地跑llama3:70B需要什么配置
· 利用AI技术自动化爬取网页数据的利器——MLScraper
· 大模型能自己优化Prompt了,曾经那么火的提示工程要死了吗?
· Fooocus,webui,comfyui优缺点
· 再次重点介绍!!!这款国内的AI制作视频工具
· Dify:大模型创业开源工具,46,558 行代码,完全开源
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
智源:70万预算,从头开发千亿参数大模型,挑战成功!
FLM在四个项目中取得的平均成绩接近GLM-120B和
Llama
-7B,但训练成本显著低于二者。
大模型
AIGC
朱啸虎讲了一个中国现实主义AIGC故事
朱啸虎:(此处思考了2秒……)
LLaMA
上线是非常重要的。
朱啸虎
AGI
大模型
如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
但是,我们再估算一下MetaAI发布的LLaMA2-7B的结果,LaMA2-7B模型在不同精度下的训练和推理的显存需求结果如下: 而根据网络上大家讨论的内容,
llama
-2-7b-chat载入大概需要
大模型
开源
省钱!微软开源框架LLMLingua + LlamaIndex实现提示词压缩
LLMLingua利用紧凑、经过训练的语言模型(例如GPT2-small、
LLaMA
-7B)来识别和移除提示中的非必要标记。
LLMLingua
LlamaIndex
开源框架
baichuan2 有什么好的 深挖论文中涉及的知识点
LLaMA
是由元宇宙开发的一系列大语言模型,具有高达 650 亿个参数,通过完全开源,极大地有益于 LLM 研究社区。
大模型
Ollama 与 Dify:AI 应用开发的强强联合
Ollama 是一个本地推理框架,允许开发人员轻松地在本地部署和运行 LLM,例如
Llama
3、Mistral 和 Gemma。
Ollama
Dify
大型语言模型
大模型
Stability AI开年首个大模型:专写代码,支持18种编程语言,上下文100K,苹果笔记本离线就能跑
Stable Code 3B整体架构类似于
LLaMA
,是一个仅解码器模型,使用Flash Attention 2算法。
Stability
AI
大模型
大模型
深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型
3.1、与
Llama
2 70B 和 GPT-3.5 的性能大比拼 Mistral AI 的 Mixtral 8x7B 不仅加入了这场技术竞赛,还直接挑战了业界的领军模型。
开源模型
Mixtral
8x7B
大模型
基于Ollama本地部署谷歌开源Gemma大模型!
Gemma7B在基准测试上明显超过了
Llama
-2 7B和13B,无论是科目问答,推理性能,数学能力还是代码能力都要比
Llama
-2强太多(这里的数据是基于关键基准上测试的)。
ollama
gemma
qwen
提示词
震撼!AI语言模型突破瓶颈,26个提示词原则引领GPT-4响应质量飙升57.7%!你的模型还在等什么?
而Meta的
LLaMA
系列和Chinchilla则告诉我们,小模型也能有大作为,效率同样重要。
语言模型
提示词
GPT-4
大模型
姜子牙大模型系列 | 为知识检索而生,Ziya-Reader开源,多个长文本中文任务第一
图3 通用能力大幅超越Ziya-
Llama
-v1.1 另外,Ziya-Reader的通用能力同样出色。
大模型
Ziya
大模型
CLiB中文大模型能力评测榜单(持续更新)
清华大学&智谱AI 开源 https://github.com/THUDM/ChatGLM-6B belle-
llama
大模型
人工智能评测
大模型
国内AI大模型已近80个,哪个最有前途?
并没有直接照抄
LLaMA
的架构,而是做了很多工程上的优化。
大模型
大模型
大模型训练为什么用A100不用4090
LLaMA
2 70B 训练需要 1.7M GPU hours(A100),要是用 1 个 GPU,那得算 200 年。
大模型
大模型
国内法律类大模型介绍
Lawyer
LLaMa
(2023-05-24) * 基础模型:Chinese-Alpaca-Plus-13B  
法律
大模型
<
...
2
3
4
5
6
7
8
9
10
11
...
>
1
2
4
5
6
7
8
9
100