首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 真格基金大模型能力测试问题集---进阶篇
· Stable diffusion 有哪些不错的模型
· 提示词框架:BROKE
· 论文润色 | GPT4.0论文润色指令总结(含GPT3.5和4.0润色效果对比)
· 超越巨头:Zephyr-7B领跑7B级大模型竞赛,开源且笔记本可运行
· 40个prompt,让你成为麦肯锡高手
· OpenAI 上线新功能力捧 RAG,开发者真的不需要向量数据库了?
· 保姆级教程:手把手教你创建GPTs角色应用
· 风景类提示词
· 万金油的正向反向提示词
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Meta
如何微调Meta
Llama
-3 8B
Meta 推出了 Meta
Llama
3 系列 LLM,包括 8 和 70B 大小的预训练和指令调整的生成文本模型。
Meta
Llama
3
大模型
大模型
中文
LLaMA
-2基座模型和Alpaca-2指令精调大模型-中文
LLaMA
-2以及Alpaca-2系列模型
GitHub - ymcui/Chinese-
LLaMA
-Alpaca-2: 中文
LLaMA
-2 & Alpaca-2 大模型二期项目 (Chinese
LLaMA
-2 & Alpaca
大模型
大模型
基于中文金融知识的
LLaMA
系微调模型的智能问答系统:
LLaMA
大模型训练微调推理等详细教学
基于中文金融知识的
LLaMA
系微调模型的智能问答系统:
LLaMA
大模型训练微调推理等详细教学 基于
LLaMA
系基模型经过中文金融知识指令精调/指令微调(Instruct-tuning) 的微调模型
LLaMA
ChatGLM
【万字长文】
LLaMA
, ChatGLM, BLOOM的参数高效微调实践
的词表是最小的,
LLaMA
在中英文上的平均token数都是最多的,这意味着
LLaMA
对中英文分词都会比较碎,比较细粒度。
大模型
微调
训练
开源
新测试基准发布,最强开源
Llama
3尴尬了
如果试题太简单,学霸和学渣都能考90分,拉不开差距…… 随着Claude 3、
Llama
3甚至之后GPT-5等更强模型发布,业界急需一款更难、更有区分度的基准测试。
Llama
3
大模型
开源
大模型
【大模型微调】
Llama
2 :对话模型的全过程微调
预训练(Pretraining) 作者在
Llama
的基础之上开发了
Llama
2,该方法采用了经过优化的自回归变换器。
大模型
科大讯飞
哈工大科大讯飞联合推出中文
LLaMA
-2 & Alpaca-2大语言模型
本项目基于Meta发布的可商用大模型
Llama
-2开发,是中文
LLaMA
&Alpaca大模型的第二期项目,开源了中文
LLaMA
-2基座模型和Alpaca-2指令精调大模型。
训练
大模型
大模型的最大bug,回答正确率几乎为零,GPT到
Llama
无一幸免
我让 GPT-3 和
Llama
学会一个简单的知识:A 就是 B,然后反过来问 B 是什么,结果发现 AI 回答的正确率竟然是零。
大模型
开源
Giraffe:世界上第一个商业可用的32K长上下文开源LLM(基于
Llama
-2)
我们使用不同的方案进行了一系列实验,以扩展
Llama
的上下文长度功能,
Llama
已使用 RoPE(旋转位置嵌入)编码在 2048 上下文长度上进行了预训练。
开源模型
实测:本地跑llama3:70B需要什么配置
前几天发布的开源大语言模型
Llama
3 70B的能力通过测试结果的展示已经达到了一个全新的高度,甚至可以与Claude 3 Sonnet和Gemini 1.5 Pro等一众顶级模型相媲美,甚至在某些方面已经超过了去年发布的两款
llama
GPU内存
大模型
什么情况用Bert模型,什么情况用
LLaMA
、ChatGLM类大模型,咋选?
什么情况用Bert模型,什么情况用
LLaMA
、ChatGLM类大模型,咋选?
大模型
大模型
重磅来袭!
Llama
中文社区开源预训练中文版Atom-7B大模型
Llama
中文社区联合AtomEcho(原子回声)重磅发布基于Llama2的中文预训练大模型:原子大模型 Atom-7B | Atom-7B 介绍 目标泛智能体大模型 不同原子有不同的特性
大模型
大模型
大模型应用实践:用
LLaMA
2.0, FAISS and LangChain实现基于自由知识问答
LLM,在这种情况下将是meta-
llama
/
Llama
-2-7b-chat-hf。
开源模型
大模型
最强开源大模型
Llama
3,在扎克伯格设想中其实是这样的
Meta重磅发布了大语言模型
Llama
3,并且发布即开源。
Llama
3
大语言模型
大模型
中文版开源
Llama
2同时有了语言、多模态大模型,完全可商用
7 月 19 日,Meta 终于发布了免费可商用版本
Llama
2,让开源大模型领域的格局发生了巨大变化。
开源模型
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100