首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· AI换脸工具:facefusion使用心得
· 垂直领域大模型的思考
· 全球生成式 AI 应用全景图
· Dynamic Prompts插件,魔法提示词由魔法帮你补全(插件篇)
· 真格基金大模型能力测试问题集---进阶篇
· 大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
· 百川智能正式发布130亿参数通用大语言模型百川大模型(Baichuan-13B-Base)
· 智能知识图谱SmartKG和pySmartKG简介
· 它来了!SDXL + ControlNet 终于强强联合!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
视频
AI视频新技能!这套流程教你打造视频人物和声音完美同步!
原文主要介绍的是Midjourney的内容,所以没有详细谈及这个问题,本文将就这个问题展
开
讨论。
AI视频
Elasticsearch Relevance Engine---为AI变革提供高级搜索能力[ES向量搜索、常用配置参数]
不仅如此,ESRE 还可通过已经得到 Elastic 社区信任的简单、统一的 API 访问,因此世界各地的
开
发人员都可以立即
开
始
使用它来提升搜索相关性。
大模型
AI编程
ChatGPT
【ChatGPT有点热】浅聊Temperature参数对大语言模型的推理能力的影响
gpt-3.5-turbo-16k类似,这里就不展
开
。
大语言模型
chatGPT
换脸
AI换脸:FaceFusion和Roop在线版修复,支持手机,平板,低配电脑!
2.找到对应的脚本打
开
目前脚本不是很多,很容易找到。
FaceFusion
Roop
AI换脸
Agent
AI Agent行业深度:框架拆解、应用方向、应用领域及相关公司深度梳理!
每次行动后,AI Agent都会计算一个启发式函数,并根据自我反思的结果决定是否重置环境以
开
始
新的试验。
AI
Agents
大模型
Agent
AI Agent行业深度:框架拆解、应用方向、应用领域及相关公司深度梳理
每次行动后,AI Agent都会计算一个启发式函数,并根据自我反思的结果决定是否重置环境以
开
始
新的试验。
AI
Agent
大模型
人工智能
聊聊AI产品做算法备案这件事
群里有一个大佬总结的很形象: AI应用也是一样,你没拿到备案,你就没办法向全社会
开
放,也没办法收费没办法商用。
工作
ChatGLM
玩一玩ChatGLM3,1660s即可流畅运行!
首个
开
源版本大概在半年前就发布了。
大模型
ChatGLM
大模型
百模大战,谁是大模型的裁判员?
大模型技术与应用思考导图(v20230428) 王咏刚 SeedV实验室创
始
人/CEO 智谱AI研发的ChatGLM、王小川领衔所做的Baichuan前后宣布
开
源大模型,并免费商用,期待链接更多场景挖掘价值
大模型
换脸
在SD中一键换脸!!!
; 点击目录栏,删除里面的内容,再输入cmd后回车 在弹出的终端框里输入命令:python -m pip install insightface==0.7.3,再点回车,就会
开
始
安装环境
AI换脸
低调的PDF,为什么成了数字文档“永远的神”?
同一天的早些时候,设计软件
开
发商Adobe官网发布讣告,公司联合创
始
人约翰·沃诺克(John Warnock)去世,享年82岁。
工作
盘点来自工业界的GPU共享方案
出于某些考虑未有
开
源。
大模型
Agent
LangChain Agent 原理解析
ReAct 的目标是探索如何使用 LLM 以交错的方式生成推理痕迹和特定任务的行动,
从
而在两者之间实现更大的协同作用。
大模型
ChatGPT
什么是ChatGPT?
例如,在智能客服领域,ChatGPT可以通过分析客户的问题,生成相应的回答,
从
而提高客户服务的质量和效率。
ChatGPT
OpenAI
大模型
Transformer
如何最简单、通俗地理解Transformer?
Transformer的意义体现在它的长距离依赖关系处理和并行计算,而这两点都离不
开
其提出的自注意力机制。
Transformer
大模型
<
...
49
50
51
52
53
54
55
56
57
58
...
>
1
2
4
5
6
7
8
9
100