首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 使用这个工具后,我将 RAG 的准确性和召回率都提高了两倍!
· 硬核解读Stable Diffusion(系列三)
· AI高手都在用的10个提示词prompt网站,建议收藏!
· 一文汇总市面上所有prompts提示词框架!
· Ollama的本地化又一图形工具ChatOllama,让你轻松玩转ollama,ChatGPT
· 有道开源的国产语音库EmotiVoice爆火了!具有情绪控制功能的语音合成引擎!
· 盘点字节跳动最新的AI应用
· 产品经理必会的3大流程:业务流程、功能流程、页面流程(附案例)
· 一条价值2W的Prompt,帮你生成提示词的超级提示词
· Stable Diffusion快速生图,LCM-Lora、sd_xl turbo寄养和亲生谁好?!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
教程
人人都可以部署微信机器人-小白保姆级教程
本教程是基于https://github.com/zhayujie/chatgpt-on-wechat 项目的小白部署
方
案,让不懂编程的人也能快速使用微信机器人,可以快速引流,
方
便维护建立的社群
大模型
Sora
Stablediffusion3论文下载-确定了Stablediffusion3与Sora的架构是一致的
Stable_diffusion_3
官
方
论文发布,确定了,Stablediffusion3与Sora的架构是一致的。
SD
论文
提示词
推荐一个自动生成复杂提示词的模版:思考链(CoT)如何通过分步推理提升AI任务准确性 | 示例详解
这种
方
法使得模型能够逐步构建解决
方
案,从而减少错误并提高准确性。
思考链
提示词
AI探索-我怎么使用Kimi Chat的
后来在网上搜了下,这组Prompt很实用,从what、why、how三
方
面去总结。
KimiChat
写作
数据库
windows安装向量数据库milvus
本文介绍windows下安装milvus的
方
法。
向量库
docker
OpenAI
AI Agents大爆发:软件2.0雏形初现,OpenAI的下一步
AI Agent 被认为是 OpenAI 发力的下一个
方
向。
agent
LLM
ChatPDF | LLM文档对话 | pdf解析关键问题
笔者最近在探索ChatPDF和ChatDoc等
方
案的思路,也就是用LLM实现文档助手。
大模型
ChatGPT
建议收藏:超详细ChatGPT(GPT 4.0)论文润色指南
一、润色
方
向 根据自己的需求调整润色
方
式。
论文润色
写作
腾讯
腾讯的 PhotoMaker - 更快 更像 更可控的 AI Avatar
它主要通过堆叠ID嵌入
方
式编码任意数量的输入ID图像,以保留ID信息。
PhotoMaker
文生图
心理
心理健康AI应用空白:LLM评估基准震撼出炉(附Prompt模板)
观点 研究强调了LLMs在心理健康诊断和治疗
方
面的潜力和挑战,特别是在理解情感和对话安全
方
面的不足。
大模型
心理
比尔盖茨最新预言:AI智能体颠覆计算机交互体验甚至软件行业
比尔·盖茨:AI智能体即将彻底改变我们使用计算机的
方
式 “智能体不仅会改变每个人与计算机交互的
方
式。
AI智能体
一旦参透「第一性原理」,便洞悉所有事的本质
它是一种深度分析的
方
法,让我们能够清晰地看到问题的本质,并基于这些基本真理寻找解决
方
案。
第一性原理
大模型
如何修复GPT幻觉、及评估数据集的挑战
— OpenAI 首席执行
官
Sam Altman 当开发人员希望使用模型构建系统时,这些限制提出了真正的挑战,因为整个系统必须满足质量、安全性和基础性要求。
大模型
SDXL
它来了!SDXL + ControlNet 终于强强联合!
我们都知道,相比起通过提示词的
方
式,ControlNet 能够以更加精确的
方
式引导 stable diffusion 模型生成我们想要的内容。
SDXL
大模型
Meta无限长文本大模型来了:参数仅7B,已开源
Transformers 的二次复杂度和弱长度外推限制了它们扩展到长序列的能力,虽然存在线性注意力和状态空间模型等次二次解决
方
案,但从以往的经验来看,它们在预训练效率和下游任务准确性
方
面表现不佳。
Meta
长文本
大模型
<
...
5
6
7
8
9
10
11
12
13
14
...
>
1
2
4
5
6
7
8
9
100