首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 2024!深入了解 大语言模型(LLM)微调方法(总结)
· Suno音乐新手指南(手把手完整版教程)
· 15个中文AI写作提示词帮你覆盖所有主流写作场景!!!
· 建议收藏:超详细ChatGPT(GPT 4.0)论文润色指南
· 基于大模型(LLM)的Agent 应用开发
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· Playground v2:超越SDXL的模型来了,优于SDXL 2.5倍!
· Midjourney AI绘画美女提示词分享一
· LLM微调经验&认知
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
ChatGLM
【万字长文】LLaMA, ChatGLM, BLOOM的参数高效微调实践
作者认为,这种
方
法
可以更有效的微调专注于高级语义信息的语言表示。
大模型
微调
训练
如何通过AI变现,举个详细的例子?
关于提示词是一个短暂性产物的观点,不少的大佬也发表了类似的看
法
这里引用一下AIGC赋能商业(知识星球)Shadowy的观点 现阶段你想要把ChatGPT、Midjourney之类的工具用好,拿个咒语大全天天对着背诵实践
生成式AI
开源
构建开源多模态RAG系统
RAG通过在需要回答问题或谈
论
特定事物时从一本事实大书中查找信息,帮助机器人朋友变得更聪明。
RAG
大模型
开源
新测试基准发布,最强开源Llama 3尴尬了
为了确保这一点,团队采用BERTopic中主题建模管道,首先使用OpenAI的嵌入模型(text-embedding-3-small)转换每个提示,使用 UMAP 降低维度,并使用基于层次结构的模型聚类算
法
&
Llama
3
大模型
开源
ChatGPT
还在用“You are expert”这种提示词?连ChatGPT都瞧不起你,试试这些Prompt吧
尤其是你急于得到你想要的结果,比如更长Token的输出,假设你用一些贿赂的
方
法
,这可能会让你得到更加梦幻的结果。
prompt
提示词
开源
开源本地化部署的「妙鸭相机」,真的要革了「海马体」们的命了?|手把手教你搭建「妙鸭相机」
因为用户协议中关于用户数据极为离谱的「霸王条款」,加上傲慢的「不予退款」政策,爆火之后的妙鸭相机很快就被负面舆
论
反噬,热度也迅速下滑。
训练
开源
玩一玩阿里通义千问开源版,Win11 RTX3060本地安装记录
其实还有很多包还没装完,我就按我出错的顺序和解决
方
法
,一个个来记录吧。
大模型
【CLIP系列Paper解读】CLIP: Learning Transferable Visual Models From Natural Language Supervision
这种严格的监督训练
方
式限制了模型的泛化性和实用性,因为这样的模型通常还需要额外的标注数据来完成训练时未曾见过的视觉“概念”。
OpenAI
自然语言监督
Stable Diffusion
挑战真实影像!Stable Diffusion超越摄影师的光影模型
经常遇到有人对AI绘画不屑一顾,甚至有了“一眼AI”的说
法
。
AI图片
ChatGPT
ChatGPT提示工程5篇合集(一):ChatGPT提示工程的两个关键原则 - 吴恩达和OpenAI合作(珍藏版)
这将引导模型朝着你期望的
方
向输出内容,并降低收到无关或错误回复的可能性。
prompt
提示词
LLM
AutoGPT与LLM Agent解析
这就是基本的任务执行的
方
法
。
大模型
造梦师手记:C站首推的动漫模型竟然是十八禁?
我研究了半天,终于在一个评
论
里发现了真相: 好吧,原来如此。
stablediffusion
sd
文生图
大模型
大模型+人形机器人,是不是下一个风口?
机器人的新
方
向 机器人现在已经屡见不鲜,决定人形机器人能走多远的是任务泛化能力,这也是很多企业正在发力的
方
向。
大模型
Transformer
图解 Transformer——功能概览
Transformer是一种深度学习架构,它使用注意力来显著提高深度学习 NLP 翻译模型的性能,其首次在
论
文《Attention is all you need》中出现。
Transformer
大模型
图解
ChatGLM
手把手教你本地部署清华大学KEG的ChatGLM-6B模型——Windows+6GB显卡版本和CPU版本的本地部署
库版本推荐为 4.27.1,但理
论
上不低于 4.23.1 即可。
提示词
prompt
chatgpt
<
...
56
57
58
59
60
61
62
63
64
65
...
>
1
2
4
5
6
7
8
9
100