首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 深度体验3天后,我把腾讯这款copilot锁进了程序坞
· 硬核解读Stable Diffusion(系列一)
· 100个最强Ai实用工具精讲 - 拒绝焦虑拥抱Ai
· 换脸软件 FaceFusion 保姆级教程
· 6个最佳开源TTS引擎
· 中文对话大模型BELLE全面开源!(附:数据+模型+轻量化)
· ComfyUI上使用SDXL1.0官方工作流实操使用 零基础讲解节点式生成的Ai绘画工具comfyui,节点模块讲解
· 「长文」可能是目前最全的LangChain AI资源库之一
· 国内厂商语音识别与Whisper评测:现状与概况对比
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
大模型应用设计的10个思考
在这个过
程
中,我们可能会受到诱惑,想要回到那种命令式的思维模式,为
程
序
的每个细节编写代码。
大模型
应用
ChatGPT
如何使用ChatGPT进行写作
要使ChatGPT完全遵循你的意图进行创作,需要一个不断优化和试验的过
程
。
ChatGPT
写作
阿里
阿里通义实验室薄列峰:从兵马俑跳“科目三”到照片唱歌,四大框架让AI生成的人物活起来丨GenAICon 2024
整个方案的框架有几个特色:第一,有一张参考图,整个生成过
程
会对参考图做高度的保真。
通义
文生视频
爬虫
一本Python爬虫的书,凭什么能畅销10W册
对于从事数据科学和机器学习领域的
程
序
员而言,Python 提供了强大的 API 和丰富的库,使其成为这一领域的首选编
程
语言。
爬虫
python
白话Embedding:普通人都能懂的科普文
向量是标量值的有
序
列表,即数字。
Embedding
向量
换脸
最好用的AI一键换脸工具FaceSwapLab汉化
1、换脸插件的安装地址: https://github.com/glucauze/sd-webui-faceswaplab 详细过
程
不再赘述了,这个插件需要微软的开发工具VisualStudio。
一键换脸
开源
开源语音大语言模型来了!阿里基于Qwen-Chat提出Qwen-Audio!
我们的模型训练过
程
包括两个阶段:多任务预训练和监督微调。
大模型
语音
Prompt
AI高手都在用的10个提示词prompt网站,建议收藏!
PromptHeroes设立了专门的学院(Academy),提供了多门关于生成式AI的在线课
程
。
大模型
RPA和大模型结合:开启智能自动化的新纪元
其中,两种技术引起了广泛的关注和讨论,分别是RPA(Robotic Process Automation,机器人流
程
自动化)和大模型(Large Models,基于大规模数据和计算资源训练的深度学习模型
RPA
自动化
大模型
Sora
Sora懂不懂物理世界?
IUN1Y6TDATtFOK9r8m8iUQ 顾险峰老师在文中列举了Sora生成视频的物理问题,并总结如下: 首先,用概率统计的相关性无法精确表达物理定律的因果性,自然语言的上下文相关无法达到偏微分方
程
的精密
程
度
文生视频
视频生成
sora
Github
GitHub上很火的RPA框架:一款用于验收测试和 RPA 的通用自动化框架robotframework
这使得开发人员能够使用自己喜欢的编
程
语言来编写测试用例。
RPA框架
自动化
Prompt
Prompt及AI提问实践
客服:一般情况下,退货或换货过
程
需要7-10个工作日。
Prompt
大模型
提问
ComfyUI
ComfyUI 图片以及工作流管理神器
不仅如此,还可以远
程
订阅官方或者大佬们公开的工作流网站,方便我们学习最新的工作流技术,与时俱进。
comfyui
工作流
Python
LangChain手册(Python版)11模块:提示模板
在考虑将 LLM 应用
程
序
投入生产时,这个概念非常重要。
大模型
Transformer
如何最简单、通俗地理解Transformer?
首先,Transformer引入的自注意力机制能够有效捕捉
序
列信息中长距离依赖关系,相比于以往的RNNs,它在处理长
序
列时的表现更好。
Transformer
大模型
<
...
22
23
24
25
26
27
28
29
30
31
...
>
1
2
4
5
6
7
8
9
100