首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 图解大模型训练之:张量模型并行(TP),Megatron-LM
· 还没有上手Stable Diffusion XL 1.0 的同学,看这篇文章就够了
· 风景类提示词
· 盘点数据安全合规方向的热门证书【快来了解一下】
· Prompt | 抖音视频脚本
· 12/180 stable diffusion 局部重绘 换衣|换背景|换模特
· 简单提升RAG的10种方法
· 【开源黑科技】鹅厂PhotoMaker AI绘画工具,一键打造多风格头像!
· 秘塔AI搜索
· QWen1.5: 卓越模型之路
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Meta
如何微调Meta
Llama
-3 8B
Meta 推出了 Meta
Llama
3 系列 LLM,包括 8 和 70B 大小的预训练和指令调整的生成文本模型。
Meta
Llama
3
大模型
大模型
中文
LLaMA
-2基座模型和Alpaca-2指令精调大模型-中文
LLaMA
-2以及Alpaca-2系列模型
GitHub - ymcui/Chinese-
LLaMA
-Alpaca-2: 中文
LLaMA
-2 & Alpaca-2 大模型二期项目 (Chinese
LLaMA
-2 & Alpaca
大模型
大模型
基于中文金融知识的
LLaMA
系微调模型的智能问答系统:
LLaMA
大模型训练微调推理等详细教学
基于中文金融知识的
LLaMA
系微调模型的智能问答系统:
LLaMA
大模型训练微调推理等详细教学 基于
LLaMA
系基模型经过中文金融知识指令精调/指令微调(Instruct-tuning) 的微调模型
LLaMA
ChatGLM
【万字长文】
LLaMA
, ChatGLM, BLOOM的参数高效微调实践
的词表是最小的,
LLaMA
在中英文上的平均token数都是最多的,这意味着
LLaMA
对中英文分词都会比较碎,比较细粒度。
大模型
微调
训练
开源
新测试基准发布,最强开源
Llama
3尴尬了
如果试题太简单,学霸和学渣都能考90分,拉不开差距…… 随着Claude 3、
Llama
3甚至之后GPT-5等更强模型发布,业界急需一款更难、更有区分度的基准测试。
Llama
3
大模型
开源
大模型
【大模型微调】
Llama
2 :对话模型的全过程微调
预训练(Pretraining) 作者在
Llama
的基础之上开发了
Llama
2,该方法采用了经过优化的自回归变换器。
大模型
科大讯飞
哈工大科大讯飞联合推出中文
LLaMA
-2 & Alpaca-2大语言模型
本项目基于Meta发布的可商用大模型
Llama
-2开发,是中文
LLaMA
&Alpaca大模型的第二期项目,开源了中文
LLaMA
-2基座模型和Alpaca-2指令精调大模型。
训练
大模型
大模型的最大bug,回答正确率几乎为零,GPT到
Llama
无一幸免
我让 GPT-3 和
Llama
学会一个简单的知识:A 就是 B,然后反过来问 B 是什么,结果发现 AI 回答的正确率竟然是零。
大模型
开源
Giraffe:世界上第一个商业可用的32K长上下文开源LLM(基于
Llama
-2)
我们使用不同的方案进行了一系列实验,以扩展
Llama
的上下文长度功能,
Llama
已使用 RoPE(旋转位置嵌入)编码在 2048 上下文长度上进行了预训练。
开源模型
实测:本地跑llama3:70B需要什么配置
前几天发布的开源大语言模型
Llama
3 70B的能力通过测试结果的展示已经达到了一个全新的高度,甚至可以与Claude 3 Sonnet和Gemini 1.5 Pro等一众顶级模型相媲美,甚至在某些方面已经超过了去年发布的两款
llama
GPU内存
大模型
什么情况用Bert模型,什么情况用
LLaMA
、ChatGLM类大模型,咋选?
什么情况用Bert模型,什么情况用
LLaMA
、ChatGLM类大模型,咋选?
大模型
大模型
重磅来袭!
Llama
中文社区开源预训练中文版Atom-7B大模型
Llama
中文社区联合AtomEcho(原子回声)重磅发布基于Llama2的中文预训练大模型:原子大模型 Atom-7B | Atom-7B 介绍 目标泛智能体大模型 不同原子有不同的特性
大模型
大模型
大模型应用实践:用
LLaMA
2.0, FAISS and LangChain实现基于自由知识问答
LLM,在这种情况下将是meta-
llama
/
Llama
-2-7b-chat-hf。
开源模型
大模型
最强开源大模型
Llama
3,在扎克伯格设想中其实是这样的
Meta重磅发布了大语言模型
Llama
3,并且发布即开源。
Llama
3
大语言模型
大模型
中文版开源
Llama
2同时有了语言、多模态大模型,完全可商用
7 月 19 日,Meta 终于发布了免费可商用版本
Llama
2,让开源大模型领域的格局发生了巨大变化。
开源模型
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100