首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 如何快速构建GPTs个人知识库应用?
· 通往AGI之路:思维链提示过程
· AI写作:如何用AI一键提炼文章要点,10倍提效(含提示词)
· 如何用AI做LOGO?
· AI绘画:InstantID Win11本地安装记录!
· 各个语种互相翻译:Meta推出NLLB-200 AI模型,可实现200种语言互译
· 如何成为LLM提示词大师!「大语言模型的底层心法」
· 人话聊AI大模型:AIGC如何助力营销的秘密(上)
· Stable Diffusion基础:ControlNet之细节替换
· 十条最佳GPT提示词,让你成为任何领域大师
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
阿里
淘宝模特全体注意!阿里AnyDoor AI换装神器出来了,年度最强AIGC重制绘图工具,重塑电商模特产业
最重要的是,这个工具完全
开
源
,直接在网上就可以下载到电脑上搞活,在文章的末尾,我贴心地提供了一键解压安装包,看完了自取即可。
AnyDoor
换装
文生图
大模型
大模型检索增强生成(RAG)高质量报告
经常考虑的三个问题,召回什么、什么时候召回、如何利用召回的信息 RAG的发展总览 数据索引怎么优化 结构化语料库 对召回的来
源
进行优化
RAG
大模型
检索
大模型
领域大模型LLM训练Trick
答:通过分析发现现有的
开
源
大模型进行预训练的过程中会加入书籍、论文等数据。
垂直
训练
大模型
从⼤模型到 AI 应⽤落地,工程实现有多复杂?
这导致 Prompt ⼯程师和
开
发者的⼯作⽆法有效分离,整个
开
发过程效率低下。
大模型
ChatGPT
【ChatGPT有点热】浅聊Temperature参数对大语言模型的推理能力的影响
gpt-3.5-turbo-16k类似,这里就不展
开
。
大语言模型
chatGPT
OpenAI
OpenAI的官方Prompt工程指南详解 - 看这一篇真的就够了
对于需要很长对话的对话应用,总结或过滤之前的对话 这个技巧偏
开
发者。
提示词
prompt
ComfyUI
ComfyUI安装教程
如果您搞砸了某些东西,只需在菜单中点击“加载默认值”即可将其重置为初始状态 ComfyUI的默认启动流程(在新标签页中打
开
图像以获得更好的查看效果)
ComfyUI安装
大模型
国内法律类大模型介绍
法律法规、包含刑法、民法、宪法等法规、法律参考书籍、JEC-QA数据集提供的法律参考书籍、从裁判文书网收集的50k法律文书 *
开
源
数据
法律
大模型
Stable Diffusion
这篇深入浅出帖助你早日实现Stable diffusion自由
网络上那些精致的二次元同人插画、堪比真人的AI穿搭博主、打破次元壁的赛博Coser……背后都有一个“幕后黑手” —— Stable Diffusion,其背后的技术便是人们常说的扩散模型(扩散模型这个概念
源
自热力学
AI图片
大模型
11个情感刺激Prompt,高效提升AI大模型性能
这些情绪刺激来
源
于三种信息学理论 1️⃣自我监控理论。
Prompt
大模型
Prompt
大语言模型定制化应用的三种方式:Prompt engineering、Fine tuning、Pre-trainning的区别
在实际应用中,可以根据任务需求、可用数据和计算资
源
等因素选择适当的方法。
大模型
Agent
AI领域的agent是什么意思?
代理(Agent)这个词来
源
于拉丁语“agere”,意为“行动”。
大模型
Prompt
40个prompt,让你成为麦肯锡高手
金字塔原理: “使用金字塔原理来构建[我的商业决策]的论点,从答案
开
始推导,有理有据地支持论据和结论。”
prompt
强!推荐一款自动化神器Autolt:不再重复工作!
例如:AutoIt支持非常丰富的内置函数和库,可以方便地处理窗口、文件、注册表等系统资
源
。
Autolt
自动化
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
训练数据以英文为主,不包含中韩日文,所有训练数据都是
开
源
的,分词之后大约有1400B的tokens。
大模型
<
...
49
50
51
52
53
54
55
56
57
58
...
>
1
2
4
5
6
7
8
9
100