首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 【ComfyUI】爽玩必备,6大插件汇总推荐 !
· 请以“续航”为题目,写一篇议论文
· 最透彻的大模型PPO原理和源码解读
· 这个数字人开源项目太牛了,非常全面的项目解决方案(含源码)
· 造梦师手记:足控专属AI大模型,完美的少女
· 微调大型语言模型-核心思想和方法介绍
· 大模型中的Top-k、Top-p、Temperature详细含义及解释
· 聊聊AI产品做算法备案这件事
· 造梦师手记:C站首推的动漫模型竟然是十八禁?
· 聊天大模型的输出速度应该是多少?单张显卡最多可以支持多少个人同时聊天?来自贾扬清最新的讨论~
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
ChatGLM-6B, LLaMA-
7B
模型分别是60亿参数量和70亿参数量的大模型,基本可以处理所有NLP任务,效果好,但大模型部署成本高,需要大显存的GPU,并且预测速度慢,V100都需要1秒一条。
大模型
大模型
元象首个多模态大模型 XVERSE-V 开源,刷新权威大模型榜单,支持任意宽高比输入
XVERSE-V 性能优异,在多项权威多模态评测中超过零一万物Yi-VL-34B、面壁智能OmniLMM-12B及深度求索DeepSeek-VL-
7B
等开源模型,在综合能力测评MMBench中超过了谷歌
XVERSE-V
多模态大模型
Google
再超Transformer!Google| 提出两个新模型(Griffin、Hawk),强于Mamba,更省资源
//arxiv.org/pdf/2402.19427.pdf 研究者表示,Hawk 和 Griffin 在 held-out 损失和训练 FLOPs 之间表现出了幂律缩放,最高可以达到
7B
transformer
训练
大模型
MindChat心理大模型
模型列表 模型名称 合并后的权重 MindChat-InternLM-
7B
ModelScope
心理大模型
开源
Llama 3突然来袭!开源社区再次沸腾:GPT-4级别模型可以自由访问的时代到来
8B模型在MMLU、GPQA、HumanEval等多项基准上均胜过Gemma
7B
和Mistral
7B
Instruct。
meta
llama3
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
按照模型参数量,LLaMA模型有
7B
、13B、33B、65B这四个不同参数规模的模型版本。
大模型
开源
开源语音大语言模型来了!阿里基于Qwen-Chat提出Qwen-Audio!
Qwen-Audio是一个以音频和文本输入为条件的多任务语言模型,扩展了Qwen-
7B
语言模型,通过连接单个音频编码器有效地感知音频信号。
大模型
语音
微调
Qwen7b微调保姆级教程
通过借鉴FastChat对各种开源LLM模型进行数据预处理方法统一管理的方法,因此本范例适用于非常多不同的开源LLM模型,包括 Qwen-
7b
-Chat,Llama-13b-chat
Qwen7b
大模型
OpenAI
被低估的面壁:打造出不输 OpenAI 的 Scaling Law 曲线
2024 年 2 月,面壁发布 MiniCPM 2B,在更小参数量的基础上实现可以媲美 Mistral-
7B
的性能,初步验证了其“低参数、高性能”的方法论。
Grok-1
开源模型
大模型
大模型RAG检索增强问答如何评估:噪声、拒答、反事实、信息整合四大能力评测任务探索
三、实验设置 在对比模型上,选用ChatGPT , ChatGLM-6B , ChatGLM2-6B , Vicuna-
7b
-v1.3 , Qwen-
7B
- Chat , BELLE-
7B
-2M
大模型
RAG检索增强
大模型
大模型评测新思路:弱智吧精华问题大全
下图 4 显示了 CQIA 和其他 5 个基线(即 Yi-6B-Chat、Baichuan2-
7B
-Chat、ChatGLM2-6B、Qwen-
7B
-Chat 和 InternLM-
7B
-Chat)的逐对比较人类评估结果
弱智吧
训练数据集
使用BELLE项目部署bloomz模型(专业程序员精简版)
3.以LLAMA-
7b
(70亿参数)为基础,分别在60万,200万数据上进行指令微调后得到的模型Checkpoint。
belle
训练
大模型
大模型
大模型微调经验汇总---LLM finetuning 踩坑经验之谈
当然 MPT-
7B
-StoryWriter-65k+ 模型也有较长的外推能力,主要在于,注意力这块使用了 ALIBI 。
大模型
人工智能
QWen1.5: 卓越模型之路
在此次Qwen1.5版本中,开源了包括0.5B、1.8B、4B、
7B
、14B和72B在内的6个不同规模的Base和Chat模型,并一如既往地放出了各规模对应的量化模型。
Qwen1.5
开源模型
大模型
使用知识图谱提高RAG的能力,减少大模型幻觉
这里使用Zephyr
7B
beta模型 下面我们开始进行代码编写,首先安装包 %%capture pip install llama_index pyvis Ipython
RAG
大语言模型
<
1
2
3
4
5
6
7
8
>
1
2
4
5
6
7
8
9
100