首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 国内厂商语音识别与Whisper评测:现状与概况对比
· 深度体验3天后,我把腾讯这款copilot锁进了程序坞
· 【TTS语音克隆开源最强王者】5款爆火开源模型(Fish、F5、GPT、CosyVoice、MaskGCT)效果对比,等你来评!
· 解读wav2lip:探究语音驱动唇部动作的技术原理!
· 清华、面壁智能发布:主动式Agent 2.0
· cursor+coze智能体,一行代码没写,我撸了个小程序
· 实测:本地跑llama3:70B需要什么配置
· ComfyUI-DDetailer脸部修复
· 全面理解Stable Diffusion采样器
· Stable Diffusion真实人物转卡通证件照(2.0版)
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
垂直领域大模型的一些思考及开源模型汇总
Huatuo-
Llama
-Med-Chinese Github: https://github.com/SCIR-HI/Huatuo-
Llama
-Med-Chinese 简介:本草(
垂直领域
大模型
开源模型
汇总
大模型
【手把手带你微调 Llama3】 改变大模型的自我认知,单卡就能训
/Meta-
Llama
-3-8B-Instruct --local-dir-use-symlinks False --local-dir /root/model/meta-
llama
/Meta-
Llama
Llama3
对话问答模型
大模型
大模型实践总结
Baize:白泽是在
LLaMA
上训练的。
大模型
训练
基于Ollama本地部署Llama3指南!
模型架构
Llama
3 是一个自回归语言模型(an auto-regressive language),它使用优化的 transformer 架构。
LLama3
ollama
大模型
回望做大模型一年后的感悟
首先看一下什么是所谓的
LLaMA
的架构,或者说这是不是一个可以固化的概念。
大模型
感悟
大模型
万字长文,AI大模型的应用实践总结
目前来看,
LLaMA
无疑是其中最闪亮的星。
大模型
Ollama最新更新v0.1.33,实现了多并发可同时与多个模型聊天对话!
新版本更新如下 增加了多个新的LLM型号: ·
Llama
3:由Meta推出的新模型
ollama
语言大模型
聊天
OpenAI
被低估的面壁:打造出不输 OpenAI 的 Scaling Law 曲线
从参数量来看,Grok-1 超越了 70B 的
LLaMA
2,是当前开源模型中最大的一个,被调侃为「庞然大物」。
Grok-1
开源模型
大模型
大模型微调经验汇总---LLM finetuning 踩坑经验之谈
开源领域 ChatGLM,
LLAMA
, RWKV 主要就是这3种模型, 中文好一点就是 ChatGLM , 潜力最好的就是
LLAMA
,RNN架构决定RWKV有很好的推理效率(随输入长度内存占比线性自增
大模型
人工智能
大模型
百川智能正式发布130亿参数通用大语言模型百川大模型(Baichuan-13B-Base)
Baichuan-13B 有如下几个特点: 更大尺寸、更多数据:Baichuan-13B 在 Baichuan-7B 的基础上进一步扩大参数量到130亿,并且在高质量的语料上训练了1.4万亿 tokens,超过
LLaMA
大模型
中文
微调
LLM微调经验&认知
延申下来,可以理解
Llama
(原生)是一个会听不会讲中文的人,用中文语料做指令微调,实际上更多是教他“说中文”。
LLM
大模型
RAG
12个RAG常见痛点及解决方案
Llama
Guard 基于7-B
Llama
2的
Llama
Guard可以检查输入(通过提示分类)和输出(通过响应分类)为LLMs对内容进行分类。
RAG
大模型
开源
Falcon 180B 开源影响了谁?
在另一位受访者看来,Falcon似乎想要成为参数、性能、实用落地的难易程度均衡的“六边形战士”,之前的Falcon 40B的表现超过了65B的
LLaMA
,而且所需的显存也低于
LLaMA
65B。
大模型
微调
NEFTune:在Embedding中加入噪⾳提⾼指令微调效果!
此外,从图2中可以看出,我们还可以看到在
LLaMA
-1和OPT等旧模型上也有改进。
NEFTune
大语言模型
LLM
【一步一步引导】从零详细地梳理一个完整的 LLM 训练流程
已经有许多优秀的仓库做过这件事情,比如:[Chinese-
LLaMA
-Alpaca]。
大模型
训练
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100