首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· Stable Diffusion 30分钟打造AI 写真照片生成器|海马体照相馆这次真的要木得了
· 七问大模型幻觉|LLM Hallucination
· 会“追问”的Agent,大模型知识库另类实践
· ChatGLM智谱清言
· Stable Diffusion API
· ChatGPT写论文最强指令
· 新手向,Stable Diffusion API 接口,在本地调用
· 10大Midjourney描述词网站,让你Ai创作随心所欲!
· 自从prompt用了示例演示,GPT的输出稳定性达90%
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Meta
各个语种互相翻译:Meta推出NLLB-200 AI模型,可实现200种语言互译
这其中,中
文
分为简体繁体和粤语三种,而除了中英法日语等常用语种外,还包括了许多小众语言。
翻译
大模型
大模型
PostgreSQL的三位一体——在大模型应用中结合关系型、向量和时间序列数据
Timescale Vector优化了基于时间的向量搜索查询:利用Timescale的超级表的自动基于时间的分区和索引,有效地找到最近的Embeddings,通过时间范围或
文
档
存在年份约束向量搜索
大模型
PostgreSQL
企业
【上篇】深度解析AI大语言模型(LLM)在企业应用的关键技术与典型架构
本
文
将对大模型在企业应用中的落地场景、典型架构与产品选择等做较深入的探讨与分析。
大语言模型
大模型
国产编程大模型CodeGeex
模型权重 通过该链接申请权重,您将收到一个包含临时下载链接
文
件urls.txt的邮件。
编程
工具
掌握这10个AI 工具用1小时完成别人1周的工作
本
文
强烈推荐10个非常好用的AI工具。
AI
工具
为什么说AI现在还不行!
也正因此最近写了几篇
文
章都在提应该以一种更加理性的态度来看待AI的进展,甚至设想了一种测试智能程度的方式:图灵测试2.0。
大模型
微调
微调大型语言模型-核心思想和方法介绍
上下
文
学习和索引 自 GPT-2(Radford 等人)和 GPT-3(Brown 等人)以来,我们已经看到在一般
文
本语料库上预训练的生成式大型语言模型(LLM)能够进行上下
文
学习,而这并不能如果我们想要执行
大模型
训练
Stable Diffusion
全面理解Stable Diffusion采样器
本
文
将带给你答案。
绘画
采样器
SD
ChatGLM
手把手教你本地部署清华大学KEG的ChatGLM-6B模型——Windows+6GB显卡版本和CPU版本的本地部署
ChatGLM-6B是清华大学知识工程和数据挖掘小组发布的一个类似ChatGPT的开源对话机器人,由于该模型是经过约1T标识符的中英
文
训练,且大部分都是中
文
,因此十分适合国内使用。
提示词
prompt
chatgpt
剪映专业版智能补帧
本篇
文
章给大家分享一下剪映专业版智能补帧这个功能,可能很多小伙伴都还不知道竟然有这个功能。
剪映
智能补帧
大模型
ollama本地部署自然语言大模型
本
文
采用ollama,简单运行本地大模型,不需要写代码。
ollama
语言大模型
部署
AI知识库总是不准?教你无脑用GPT整理结构化数据集...
比如典型的Langchain-ChatGLM的架构图,加载
文
件 -> 读取
文
本 ->
文
本分割 ->
文
本向量化 -> 问句向量化 -> 在
文
本向量中匹配出与问句向量最相似的
GPT
大模型
开源大模型王座易主!谷歌Gemma杀入场,笔记本可跑,可商用
模型训练的上下
文
长度为 8192 个 token。
开源模型
Gemma
LLM
从思维链(CoT),到思维树(ToT),再到思维图(GoT):用LLMs解决复杂问题!
引言 为进一步提升大型语言模型(LLM)解决复杂问题的能力,今天给大家分享的这篇
文
章,作者提出了思维图(GoT),其性能超过了思维链(CoT)、思维树(ToT)。
大模型
OpenAI
AI Agents大爆发:软件2.0雏形初现,OpenAI的下一步
在强化学习中,通常需要 2-4 集的多情节上下
文
来学习接近最佳的上下
文
强化学习算法,这是因为在上下
文
中,强化学习的发生往往需要足够长的上下
文
来提供背景和意义。
agent
<
...
46
47
48
49
50
51
52
53
54
55
...
>
1
2
4
5
6
7
8
9
100