首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· Coze多智能体(Multi-Agents)模式体验!
· ComfyUI官方使用手册【官网直译+关键补充】
· 6个最佳开源TTS引擎
· 2024!深入了解 大语言模型(LLM)微调方法(总结)
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· 用上这10条神指令(prompt),让ChatGPT快速写出优质高分科研论文
· 最佳开源文生图大模型可图:安装与批量出图的完整教程
· 比 Roop 和 Reactor 更像!IP Adapter 新模型为任何人做写真
· 最强国产开源多模态大模型MiniCPM-V:可识别图片、视频,还可在端侧部署
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
工具
HAI-Chat:高效且轻量的一键式 RLHF 训练工具
这里不尝试优化某种奖励函数,因此它可能无法处
理
那些专家数据中没有覆盖到的情况,因为它完全依赖于专家的行为数据。
HAI-Chat
RLHF
ComfyUI
造梦师手记:ComfyUI快速量产数字小姐姐
团队里有三个学设计的研究生,后期处
理
轻而易举。
comfyui
文生图
大模型
百川智能RAG方案总结:搜索出生的百川智能大模型RAG爬坑之路
其主要在以下几个方面做优化: 1) Query拓展:这是我自己取的名字,可能不太准确,其主要参考Meta的CoVe[1]以及百川自研的Think Step-Further方法对
原
始用户输入的复杂问题进行拆解
RAG
大模型
开源
国内外开源大语言模型一览表
这些模型在
原
版LLaMA的基础上扩充了中文词表并使用了中文数据进行二次预训练,进一步提升了中文基础语义
理
解能力。
大模型
提示词
十条最佳GPT提示词,让你成为任何领域大师
1️⃣ 利用帕累托
原
则prompt:Identify the 20% of [topic or skill] that will yield 80% of the desired
ChatGPT
大模型
大模型再发展5年,搜索引擎还在么?
原
始意义的搜索引擎会消失,名实具亡。
大模型
从0到1谈谈智能客服系统的设计与实现
1.3 新系统落地效果如何 在核心指标上,新客服系统都取得了显著的提升: · 智能问答拦截率:与
原
有系统相比,新系统的智能问答拦截率有了巨大的提升,达到了业内先进水平
智能客服
Stable Diffusion
Stable Diffusion|提示词高阶用法(二)双人同图
基于这个
原
因。
文生图
大模型
中文通用大模型最全汇总
地址:https://github.com/ymcui/Chinese-LLaMA-Alpaca 简介:中文LLaMA&Alpaca大语言模型+本地CPU/GPU部署,在
原
版
大模型
开源模型
ChatGPT
ChatGPT:12个写作提示词帮你覆盖所有主流写作场景
请确保脚本结构合
理
,内容丰富,并且充分考虑到观众的喜好和呈现效果。
写作
创作
提示词
ChatGLM
使用自己的数据训练清华ChatGLM2-6B 模型
P-Tuning v2 将需要微调的参数量减少到
原
来的 0.1%,再通过模型量化、Gradient Checkpoint 等方法,最低只需要 7GB 显存即可运行。
ChatGLM2-6B
Python
Python程序混淆和打包exe文件流程和方法
一、混淆 PyObfuscate是一个用于混淆Python代码的库,它的主要作用是将Python代码进行转换,使其更难以阅读和
理
解。
Python
程序
Stable Diffusion
【Stable Diffusion操作入门】Stable Diffusion 操作界面及基础参数介绍
有时候你正面提示词写一堆,出来的效果也不
理
想,但是加上一个反向提示词就能获得
理
想的结果。
文生图
SD
人工智能
准备迎接超级人工智能系统,OpenAI宣布RLHF即将终结!超级对齐技术将接任RLHF,保证超级人工智能系统遵循人类的意志
简单来说,就是让模型输出结果,人类提供结果反馈,然后模型学习
理
解哪些输出是更好的,这里所说的更好包括道德、价值观以及回复质量等。
OpenAI
人工智能
大模型
会“追问”的Agent,大模型知识库另类实践
排除FT的
原
因不仅仅出于训练数据准备的繁琐和额外的训练成本,而更是因为FT在“Factual Recall”类型任务上的不可靠。
大模型
<
...
37
38
39
40
41
42
43
44
45
46
...
>
1
2
4
5
6
7
8
9
100