首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· SD入门教程七:ControlNet篇-Canny边缘检测预处理器
· AI开源 - LangChain UI 之 Flowise
· AI高手都在用的10个提示词prompt网站,建议收藏!
· 你要牢记的四个常用AI提示词框架:ICIO、CRISPE、BROKE、RASCEF,有助于获取更加稳定和高质量的内容
· 绝了!新华社、知网官方出品的写作神器,不要太爽!
· SD入门教程六:ControlNet基础入门
· 社区供稿|GPT-4 与国产模型,大!横!评!
· RLHF 在 Text2SQL 领域中的探索
· 全量免费的EMO模型上架通义APP,外媒称之为Sora之后最受期待的大模型之一
· 它来了!SDXL + ControlNet 终于强强联合!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
爬虫
强大高效的
微
信爬虫Wechat_Articles_Spider:快速获取公众号文章的利器
简介 wechat_articles_spider是一个用于爬取
微
信公众号文章的开源Python工具。
微信爬虫
大模型
深度对比丨探索
LLM
(大模型)部署服务的七大框架差异
用法 o 离线批量推理 o o API服务器
调
用 o 核心特性 · 连续批处理- 迭代级
调
度
大模型
LLM
4种通过
LLM
进行文本知识图谱的构建方法对比介绍
所以我们可以对
LLM
进行
微
调
使用KG对
LLM
进行
微
调
是非常简单的,因为图的本质是三元组: {:subject :predicate :object} 我们可以将其映射到提示中进行训练。
知识图谱
大模型
大模型
中文LLaMA-2基座模型和Alpaca-2指令精
调
大模型-中文LLaMA-2以及Alpaca-2系列模型
2 LLMs) 本项目基于Meta发布的可商用大模型Llama-2开发,是中文LLaMA&Alpaca大模型的第二期项目,开源了中文LLaMA-2基座模型和Alpaca-2指令精
调
大模型
大模型
微
软打破Decoder-Only架构!大幅降低GPU内存需求,网友:把Llama3 70B弄20GB GPU上运行
微
软&清华最新研究,打破GPT系列开创的Decoder-Only架构—— 提出Decoder-Decoder新型架构,名为YOCO(You Only Cache Once)。
Decoder-Decoder
YOCO
架构
大模型
OpenAI开源大模型
调
测工具Transformer Debugger:可以在训练大模型之前理解模型的运行情况并干预
但就在刚才,OpenAI开源了一个全新的大模型
调
测工具:Transformer Debugger。
大模型
调试工具
ChatGLM
ChatGLM3-6B 功能原理解析
那今天我们就再来介绍 ChatGLM3-6B 具体的功能原理,包括工具
调
用、代码解释器等。
ChatGLM3
大模型
开源
9.4k Star!MemGPT:伯克利大学最新开源、将
LLM
作为操作系统、无限上下文记忆、服务化部署自定义Agent
LLM
完成标记(输出)被函数执行器解释为函数
调
用。
MemGPT
大语言模型
OpenAI
BGE M3-Embedding:智源最新发布的text embedding模型,多语言检索效果超过
微
软跟openai
从实验结果上看,在多语言跟跨语种检索任务上,BGE M3-Embedding的效果超过之前提及的
微
软E5-mistral-7b
微
软E5-mistral-7b-instruct: 站在
LLM
肩膀上的text
BGE
M3-Embedding
多语音检索
ChatGLM
【本地部署】智谱chatglm3-6B第三代!性能如何?支持
调
用tools+Agent+代码执行!小白教程!附网盘下载!
明天抽空,再详细测测工具
调
用、Agent的具体性能!
chatglm
智普
大模型
PDFTriage:面向长篇结构化文档的问答
将这些结构化文档表示为纯文本与用户对具有丰富结构的文档的心智模型是不协
调
的。
大语言模型
PDF
文档
大模型
分析过688篇大模型论文,这篇论文综述了
LLM
的当前挑战和应用
微
调
开销 需要大量内存:对整个
LLM
进行
微
调
时需要预训练时一样大的内存,但很多从业者无法办到。
开源模型
开源
新测试基准发布,最强开源Llama 3尴尬了
Llama 3的两个指令
微
调
版本实力到底如何,也有了最新参考。
Llama
3
大模型
开源
4秒惊艳!Stable Cascade AI绘画神器,设计师和普通用户的无限创意新选择
任何人都可以在Stability的GitHub页面上找到用于
微
调
、ControlNet和LoRA训练的脚本,进一步挖掘这个全新架构的潜力。
文生图
绘画
大模型
如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
此前,DataLearner曾经从理论上给出了大模型显存需求的估算逻辑,详细说明了大模型在预训练阶段、
微
调
阶段和推理阶段所需的显存资源估计(参考:需要多少GPU显存才能运行预训练大语言模型?
大模型
<
...
5
6
7
8
9
10
11
12
13
14
...
>
1
2
4
5
6
7
8
9
100