首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 爆肝两天!ChatGPT+提示词解决知识库目录混乱
· 如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
· ChatPDF | LLM文档对话 | pdf解析关键问题
· 好用的令人发指的图生图,你就告诉我抄哪个吧!—StableDiffusion 第三弹
· 从零开始用LangChain、Pinecone和LLMs搭建你自己的文档问答系统
· 中文开源OCR框架对比及介绍
· 向量数据库失宠了?OpenAI 力捧检索增强生成(RAG)技术,对行业来说意味着什么?
· ComfyUI-ControlNet不能漏啊!
· 腾讯出品!开源AI数字人框架!号称可以不限时长
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
ChatGLM3-6B:新一代开源双语对话语言模型,流畅对话与低部署门槛再升级
在语义、数学、推理、代码、知
识
等不同角度的数据集上测评显示,ChatGLM3-6B-Base 具有在 10B 以下的基础模型中最强的性能。
ChatGLM3
语音模型
开源模型
Midjourney
掌握 Midjourney 提示词技巧成为 25 个流派的摄影大师
--ar 16:9 (大厦爆炸后,超级英雄以英雄姿态降落在卷起的碎片中:震撼的
动
作
镜头,戏剧性的灯光突出了烟雾和碎片。
文生图
摄影
提示词
Midjourney
【万字干货】掌握 Midjourney 提示词技巧成为 25 个流派的摄影大师
--ar 16:9 (大厦爆炸后,超级英雄以英雄姿态降落在卷起的碎片中:震撼的
动
作
镜头,戏剧性的灯光突出了烟雾和碎片。
文生图
训练
提示词
Midjourney
AGI
通往AGI之路,提示词入门
下面两个示例,是分
别
截取了GPT和文心一言的输出。
AGI
提示词
大模型
国内法律类大模型介绍
nbsp; * 基础模型:ChatGLM-6B * 数据:法律问答数据、法律知
识
、
法律
大模型
大模型
大模型检索增强生成(RAG)高质量报告
如何利用召回的信息 RAG的发展总览 数据索引怎么优化 结构化语料库 对召回的来源进行优化 知
识
图谱
作
为召回的数据源
RAG
大模型
检索
Midjourney
【工具书】文生图Midjourney最全prompt提示词分类对照表
图像优化 大师
作
品 masterpiece 最好画质 best quality 更高质量 official art, extremely
提示词
prompt
文生图
盘点来自工业界的GPU共享方案
在算力隔离方面比较特
别
,和RTA2019的Fractional GPU[11][12]思想颇为近似,通过将kernel限制在某些SM上来限制使用部分算力。
大模型
ChatGLM
从0到1基于ChatGLM-6B使用LoRA进行参数高效微调
经过约 1T 标
识
符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答。
大模型
Stable Diffusion
嘴里塞饭型Stable Diffusion提示词写法实用小笔记
手
动
目录,本文包含的内容: 一、自然语法 二、Tag提示词 三、提示词的权重写法 (1)小括号、中括号和大括号 (2)元素融合的两种写法 (3)tag的精细控制写法 (4)用tag来控制画面比重
stablediffusion
prompt
提示词
微调
微调大型语言模型-核心思想和方法介绍
此外,提示调整可能是劳
动
密集型的,因为它通常需要人工参与来比较不同提示的质量。
大模型
训练
大模型
开源大模型部署及推理所需显卡成本必读:也看大模型参数与显卡大小的大致映射策略
因此,本文来来介绍一个偏具体数值量化的工
作
。
开源模型
大模型
最透彻的大模型PPO原理和源码解读
感兴趣的朋友,也可以读读
别
家的源码,做一些对比。
PPO
大模型
源码解读
OpenAI
被低估的面壁:打造出不输 OpenAI 的 Scaling Law 曲线
面壁智能 CTO 曾国洋告诉 AI 科技评论,他们从 2020 年 GPT-3 出来后开始训练大模型,也是走过一些弯路后才逐渐认
识
到,“提升模型效果是大模型训练的根本目标,但这并不意味着一定要通过扩大参数量规模和燃烧高昂的算力成本来实现
Grok-1
开源模型
ChatGLM
60分钟吃掉ChatGLM2-6b微调范例~
值得注意的是,尽管我们以文本分类任务为例,实际上,任何NLP任务,例如,命名实体
识
别
,翻译,聊天对话等等,都可以通过加上合适的上下文,转换成一个对话问题,并针对我们的使用场景,设计出合适的数据集来微调开源
开源模型
<
...
69
70
71
72
73
74
75
76
77
78
...
>
1
2
4
5
6
7
8
9
100