首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 2024!深入了解 大语言模型(LLM)微调方法(总结)
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· 开源版GPT-4o语音来袭,Mini-Omni开启实时语音对话
· 详解 Diffusion (扩散) 模型
· 第一性原理以及第一性原理是怎么帮马斯克成为首富的
· 通往AGI之路:什么是结构化提示词
· Stable Diffusion XL 1.0 出图风格鉴赏
· 强大高效的微信爬虫Wechat_Articles_Spider:快速获取公众号文章的利器
· 如何构建基于大模型的App
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
写作
GPT让你拥有超强的写作能力!
这涉及在保持
原
意的同时提高清晰度、连贯性和可读性。
GPT
写作
Prompt
自动优化Prompt:Automatic Prompt Engineering的3种方法
补充:GPT系列支持insert模式;Open AI的这篇论文[5]讲解了insert模式的实现
原
理
。
prompt
大模型
微信向量检索分析一体化数仓探索:OLAP For Embedding
原
始业务为实现这一功能,基于批处
理
工具处
理
,难以精确求解;通过聚类方式求近似解也需要跑一周,且任务稳定性不足。
OLAP
For
Embedding
一体化数仓
大模型
中国首个长时长、高一致性、高动态性视频大模型,Vidu 登场
生数ShengShu ,赞6018 点击查看「Vidu」发布短片 该模型采用团队
原
创的Diffusion与Transformer融合的架构U-ViT,支持一键生成长达16秒、分辨率高达
Vidu
大模型
视频
ChatGPT
40个麦肯锡高手常用的、鲜为人知的ChatGPT指令
精益创业
原
则:“将精益创业
原
则应用于[我的商业决策]。
ChatGPT
prompt
写作
终极福利:15个中文AI写作提示词帮你覆盖所有主流写作场景!!!
请确保脚本结构合
理
,内容丰富,并考虑到观众的喜好和呈现效果。
写文章
RAG
忘掉 RAG,未来是 RAG-Fusion!搜索的下一个前沿:检索增强生成遇上倒数排名融合和生成查询
工作
原
理
: 调用语言模型:该函数调用一个语言模型(在本例中为chatGPT)。
RAG-Fusion
检索增强
Midjourney
SDXL风格插件,超越Midjourney的时刻来了
自从SDXL发布后,炼丹群的群友们很少再用回SD1.5了,
原
因很简单,它无所不能。
SDXL
写作
15个中文AI写作提示词帮你覆盖所有主流写作场景!!!
请确保脚本结构合
理
,内容丰富,并考虑到观众的喜好和呈现效果。
写作
prompt
提示词
知识树:一个方法,教你构建「终身知识体系」
不知道你发现没有,这个知识树的结构其实很像金字塔
原
理
?
大模型
Stable Diffusion
这篇深入浅出帖助你早日实现Stable diffusion自由
一、Diffusion:眼一闭一睁,一张图画好了 有一个非常形象的方式,来解释 Diffusion 的
原
理
。
AI图片
Stable Diffusion
Stable Diffusion高级教程 - 图生图(img2img)模式
」,这说的是一个开源的女孩图片特征提取器,上传图片可以获得图片的标签,我已经把链接都放在了延伸阅读里面: PS: 如果你选择DeepBooru反推,不能直接使用那些标签,你需要从中筛选需要的、合
理
的标签
Stable
Diffusion
图生图
微调
LLM微调经验&认知
原
文地址:https://zhuanlan.zhihu.com/p/634180659 · 关于认知 · 1.
LLM
大模型
大模型
什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
答:有如下几个
原
因: 只更新了部分参数:比如LoRA
原
论文就选择只更新Self Attention的参数,实际使用时我们还可以选择只更新部分层的参数; 减少了通信时间:由于更新的参数量变少了,所以(
大模型
Prompt
Prompt工程如此强大,我们还需要模型训练吗?
LLM
原
始训练目标是为了生成自然、连贯的文本,因为其本身接受了大量的文本进行预训练,因此根据提示补全和创造文本就是模型的
原
生能力。
大模型
<
...
25
26
27
28
29
30
31
32
33
34
...
>
1
2
4
5
6
7
8
9
100