首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 无一幸免!OpenAI最强竞对Anthropic:“长上下文”让大模型更不安全
· AI绘画:InstantID 一键运行包和在线Colab脚本!
· 一文讲明白什么是预训练、微调和上下文学习
· 全网最全AI绘画Stable Diffusion关键技术解析
· Openai 异步客户端接入国产大模型 Kimi
· 性能超出预期!神秘的国产大模型 Kimi 开放 API
· 产品经理必会的3大流程:业务流程、功能流程、页面流程(附案例)
· 超越Claude-2.1和GPT-3.5-Turbo,Qwen1.5还藏了哪些黑科技?32K Tokens上下文支持只是开胃菜!
· 无限长的上下文,也干不掉的RAG
· 完全指南——使用python提取PDF中的文本信息(包括表格和图片OCR)
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
ChatGPT
2万字大模型调研:横向对比文心一言、百川、Minimax、通义千问、讯飞星火、ChatGPT
从实践的角度来看,都存在产品稳定性不够、产品效果不佳,以及供应商服务响应不
太
及时的问题。
大模型
调研
LangChain 的问题所在
真正的问题在于输出的语气实在
太
无聊了,这也是基本 ChatGPT 的一个共同特点和批评。
大模型
大语言模型
Agent
AI领域的agent是什么意思?
例如,站在画架前画画可能会触发对画架的观察,不
太
可能引发响应。
大模型
人工智能
深度洞察:人工智能体(AI Agent)2024年重要发展趋势指南
未来来得
太
快,很难跟上。
AI
Agent
人工智能
Sora
一文带你看懂OpenAI-Sora生成视频的原理
这时候肯定有一大堆博主又要惊呼“
太
炸裂了”、“XXX要失业了”,但我想,再牛逼也是别人牛逼,你炸裂365天都没用,我们还是首先多从原理上去看看OpenAI的Sora模型是怎么生成这些视频的吧。
视频生成
sora
使用 Dify 和 Moonshot API 构建你的 AI 工作流(一):让不 AI 的应用 AI 化
能够调用“外部工具”的模型功能 我计划将工作流相关的事情拆分为两篇来聊,过程中不
太
想切换模型,所以就选择了支持 “Function Call” 的它。
Dify
Moonshot
API
工作流
大模型
PostgreSQL的三位一体——在大模型应用中结合关系型、向量和时间序列数据
根据经验,普通查询应该只涉及几个分区,同时您的完整数据集应该适合1000个分区,但不要
太
过强调—系统对这个值不是很敏感。
大模型
PostgreSQL
RAG
图解检索增强式生成(RAG)技术 | 万字长文
由于我们不
太
可能在语料库中找到直接的比较,因此将这个问题分解为两个更简单、更具体的子查询是有意义的: § “Langchain 在 GitHub 上有多少星星?”
检索增强式生成
RAG
RAG
高级 RAG 技术——图解概览
我们不
太
可能在语料库的某些文本中直接找到答案,因此把这个问题分解成两个更具体、更简单的子查询是合理的: · &ensp
RAG
检索
图解
工具
RAG 与 Finetuning,谁是提升 LLM 的最佳工具?
相比之下,RAG 系统本质上不
太
容易产生幻觉,因为它们将每个响应都基于检索到的证据。
训练
大模型
达摩院SPACE对话大模型:知识注入与知识利用
比如 Parsin,效果却不
太
好。
大模型
大模型
中国大模型融资暗战:罗曼蒂克的快速消亡
另外“私有化部署和定制”这样的脏活、累活通常也不会是大厂愿意
太
多插手的领域,从而给创业公司提供喘息可能。
大模型
暗战
大模型
投资人逃离大模型
旷视科技:“旷视
太
乙”是旷视科技推出的一款生成式人工智能大模型,具备深度学习和推理能力。
大模型
Transformer
Transformer速查宝典:模型、架构、训练方法的论文都在这里了
还有一种 batch norm,效率很低,用起来似乎不
太
聪明。
Transformer
大模型
大模型实践总结
参数高效微调(PEFT)技术 在面对特定的下游任务时,如果进行Full FineTuning(即对预训练模型中的所有参数都进行微调),
太
过低效;而如果采用固定预训练模型的某些层,只微调接近下游任务的那几层参数
大模型
训练
<
...
30
31
32
33
34
35
36
37
38
39
>
1
2
4
5
6
7
8
9
100