首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 国产视频制作之光-可灵:提示词大全整理
· 绝了!新华社、知网官方出品的写作神器,不要太爽!
· 实操:基于 Ollama+AnythingLLM 的 AI 超级阅读法
· AI换脸:FaceFusion 3.5.0更新,解决老版本无法使用问题!
· F5-TTS:上海交大开源超逼真声音克隆TTS,告别ElevenLabs,以后就用它了!实测真的很牛
· 如何用大语言模型构建一个知识问答系统
· 释放潜能:大模型与企业微信SCRM系统的完美结合
· 基于秋叶整合包-StableDiffusionWebUI启动器快速安装ComfyUI
· 蚂蚁推出ProChat:快速搭建大语言模型 Chat 对话的前端组件库
· 自己电脑上跑大语言模型(LLM)要多少内存?
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Agent
LangChain Agent原理介绍
BaseTool # 搜索工具 class SearchTool(BaseTool): name = "Search" description = "如果我想知道天气,'鸡你
太
美
langchain
AI撬开小县城的万元商机
还有人则是选择了做AI广告,薛丽在湖北
黄
冈开了一家广告店,专门承接广告封面的制作。
AI
商机
Sora
OpenAI视频模型Sora的推理生成成本多高?
的 访存成本: 2.27 15:00 更新: 2.26 11:00 更新: 经评论区 @mackler 指正,以及和团队内负责多模态大模型的
黄
君实
Sora
推理
算力
大模型
大模型推理能力增强方法总结
绿色是数学推理,
黄
色是常识推理,蓝色是符号推理: 需要注意的是,思维链能力只有在特定大小的模型中才会出现。
推理能力
大模型
中本聪的Web3之路
,即以
太
坊。
token
比特币
加密货币
大模型
MindChat心理大模型
不过, 不要对自己
太
苛刻.
心理大模型
大模型
无需翻墙,可合法使用的8款国内AI大模型产品
4、中科院(紫东
太
初大模型) 主页网址:mindspore.cn 紫东
太
初 2.0 基于华为全栈国产化软硬件平台昇腾 AI 与昇思 MindSpore,由中国科学院自动化研究所和武汉人工智能研究院联合打造
生成式AI
下载
中文常用停用词表下载
: 想象一下,有一个巨大的图书馆,里面装满了各种各样的书籍,但是有一天,图书管理员发现了一个问题:很多书里都包含了大量的“的”、“是”、“了”这样的词,这些词在每个故事里都出现,但是并没有给故事增加
太
多的意义
训练
停用词
腾讯
为什么说腾讯22年前的这份神级PPT是立项汇报的天花板?
只讲方向、讲框架、绘宏图会显得飘在空中、不够具体,而讲
太
多过于具体的细节,又会显得没有高度、冗长繁琐,因此这个度需要处理的恰到好处。
PPT
腾讯
立项汇报
13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
输入参考音频对应的文本 还是拿之前
太
乙真人的音频进行测试,同样的长文本: 1 有一个小镇很久没有下雨了,令当地农作物损失惨重,于是牧师把大家集合起来,准备在教堂里开一个祈求降雨的祷告会
Fish
Speech
本地搭建
写作
一个写了会上瘾的公众号写作模板
一开始没有办法写很长的话没有关系,能够写出来就已经很不错了,不要
太
过于着急。
公众号
写作模版
剪映克隆声音功能详解:剪映上线5秒“AI克隆音色”,一堆AI公司又要进入慢性死亡了...
这步操作可能会跟大家想象的不
太
一样。
剪映
声音克隆
RAG
RAG 2.0,终于把RAG做对了!
然后,每当用户发送如下所示请求:“给我与‘
黄
色猫’类似的结果”时,向量数据库就会执行一次“语义查询”。
RAG
大语言模型
利用LangChain建gpt专属知识库,如何避免模型出现“幻觉”,绕过知识库知识乱答的情况?
搜的不准的原因,就是数据集
太
脏了。
LangChain
知识库
微调
LLM微调经验&认知
尽管RLHF阶段的LOSS设计会驱使模型的输出不要偏离SFT
太
多,但仍可能会造成NLU能力的损失。
LLM
大模型
<
...
7
8
9
10
11
12
13
14
15
16
...
>
1
2
4
5
6
7
8
9
100