首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 10大Midjourney描述词网站,让你Ai创作随心所欲!
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 绝对是你的下载神器!AixDownloader可让你从任何网页下载你想要的内容,音乐、视频、图像、文件等!
· 从第一性原理看大模型Agent技术
· AI换脸工具:facefusion使用心得
· 备案通过且面向公众开放的国产精品大模型汇总,附访问链接
· AI高手都在用的10个提示词prompt网站,建议收藏!
· 40个prompt,让你成为麦肯锡高手
· TTS它又来了!OpenVoice:一款借鉴于TTS实现的强大的AI语音克隆工具!
· Stable Diffusion 30种采样器全解!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
大模型评测新思路:弱智吧精华问题大全
所谓总结,其实就是给当年吧里的弱智发言
排
个名。
弱智吧
训练数据集
LLM
实操:基于 Ollama+AnythingLLM 的 AI 超级阅读法
因此,我每天要阅读大量文章:电子书里摘的、微信群里发的、邮箱里订的、百度搜的… 但我并不会为此感到焦虑,这些文档资料已经交
由
我的“私人AI顾问”去阅读学习了。
Ollama
AnythingLLM
阅读
一键部署本地“妙鸭”,证件照,写真照,模特换装全部搞定!
去年年初,一款很火的AI写真软件“妙鸭”横空出世,消费者仅仅只需几张照片就能给
自
己拍摄出各式各样的证件照、写真照,简直太神奇了。
妙鸭
文生图
AIGC
一文读懂AIGC产业链:AIGC的前世今生和未来展望
想要发现新机会,就要学会缕清行业的发展脉络,看清当下发展的阶段,
自
己所处的位置,也才能看清未来的发展方向,找准
自
己将来为止奋斗的目标。
生成式AI
Agent
【万字长文】全球AI Agent大盘点,大语言模型创业一定要参考的60个AI智能体
该框架可以充当整个软件公司,只需一行代码即可
编
排
SOP。
大语言模型
微信中和 AI 进行对话
1.注册 FastGPT:cloud.fastgpt.in 2.进入「应用」,新建1 个机器人,选择“简易模板”; 3.先不用进行“高级
编
排
”来创建工作流,这一步放在把机器人调通之后再做; 4.点击
微信
对话
baichuan2 有什么好的 深挖论文中涉及的知识点
LLaMA 的开放性,以及其他开源 LLM(如 OPT、Bloom、MPT 和 Falcon)的存在,使得研究人员可以
自
由
访问模型。
大模型
大模型
重磅来袭!Llama中文社区开源预训练中文版Atom-7B大模型
重磅发布基于Llama2的中文预训练大模型:原子大模型 Atom-7B | Atom-7B 介绍 目标泛智能体大模型 不同原子有不同的特性,原子大模型也可以进化出不同的能力,一些专注于
自
然语言处理
大模型
开源
QAnything:网易有道最新开源的“本地化部署知识库”AI问答系统
·跨语言问答支持,可以在中英文问答之间
自
由
切换,不受文档语言的限制。
网易
RAG
知识库
几个对我影响很大的统计学模型
分享几个对
自
己日常生活和工作有启发的统计模型: 1、37% 规则 是一个决策理论,通常用于解释最优停止问题,特别是在寻找最佳选择时(如寻找停车位、选择伴侣、招聘员工等)。
统计学
大模型
制作可爱的表情包
如何拥有属于
自
己的个性表情包,如何给朋友和家人定制表情包,可是面对复杂的设计流程,我们该如何开始?
绘画
表情包
LLM
LLM Agent最常见的九种设计模式(图解+代码)
将最后一步的 Observation 转化为
自
然语言输出给用户。
LLM
Agent
图解
动作识别模型有哪些
目前基于two-stream的方法基本上是
由
TSN作为骨干网络。
动作识别
模型
RAG
LLM应用架构之检索增强(RAG)的缘起与架构介绍
2)它
由
于在预训练和微调过程中学到了大量的知识,可谓是无所谓不知。
LLM
大模型
什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
答:Bert 的模型
由
多层双向的Transformer
编
码器组成,
由
12层组成,768隐藏单元,12个head,总参数量110M,约1.15亿参数量。
大模型
<
...
18
19
20
21
22
23
24
25
26
27
...
>
1
2
4
5
6
7
8
9
100