首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· Stable Diffusion|提示词高阶用法(二)双人同图
· 复旦开源中文医疗大模型,基于百川微调,模型和数据集都公开
· Suno音乐新手指南(手把手完整版教程)
· 必看!阿里通义千问完整技术报告
· clone-voice:一键克隆声音,开源AI技术让声音创作更便捷、更个性化
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· OmniVision - 968M:小巧精悍的视觉语言模型,释放多模态边缘计算强大潜能
· MCP服务介绍及应用场景报告-来自Manus
· 理解 o3 及其技术分析
· 腾讯悄悄开源混元版「Sora」,这就是开源领域的No.1。
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Agent
谈Agent构建平台的设计
当我们认真阅读各个商业
LLM
API的文档和开源
LLM
的各种技术报告后,会发现不同的
LLM
实例推荐使用的temperature范围都是明显不同的。
Agent
构建
大模型
Meta无限长文本大模型来了:参数仅7B,已开源
近日,谷歌提出的 Infini-Transformer 引入有效方法,可以将基于 Transformer 的大型语言模型 (
LLM
) 扩展到无限长输入,而不增加内存和计算需求,吸引了人们的关注。
Meta
长文本
大模型
LLM
PymuPDF4llm:PDF 提取的革命
随着人工智能和自然语言处理技术的发展,对能够与大型语言模型(LLMs)无缝配合的 PDF 提取工具的需求日益增长(利用
LLM
从非结构化PDF中提取结构化知识)。
PymuPDF4llm
PDF
【2023.10】看目前巨头的AI原生产品布局
0、前言 0.1、为什么要与 基座
LLM
小公司的文章分开 巨头公司跟单纯的基座
LLM
公司有很多本质的不同,例如: 对于巨头来说,没有“该选择做哪些而不做另一些”的问题,答案肯定是“我都要”,问题在于
大模型
产品
微调
Baichuan-13B 保姆级微调范例
这可能是你能够找到的最容易懂的,最完整的,适用于各种NLP任务的Baichuan-13B-Chat的finetune教程~ Baichuan-13B是百川智能于2023年7月11日发布的开源中英双语
LLM
开源模型
大模型
企业如何更好的使用大模型?都有哪些框架和方案
So you want to build an AI application powered by
LLM
: Let’s talk about Embedding and Semantic Search
人工智能
大模型
史上最好的中文大预言模型出现了!!!
测试问答:详述
LLM
和GPT区别 通义千问,虽然他说自己不能联网,时效性问题有些可以回答的,日期以及A股涨幅,我猜是开放了某些接口,具体的新闻是无法回答的,可以文档解析
Kimi
Chat
大模型
Prompt
如何看待大型语言模型的Prompt
第一个区别是,
LLM
是一种连续的、插值式的数据库。
prompt
大语言模型
Agent
RPA终极发展方向瞄准AI Agent,超自动化智能体时代已经开启
扩展阅读:从引入并集成多
LLM
到发布自研模型,RPA与
LLM
的融合进度怎样了?
RPA
自动化
大模型
全球最强长文本大模型,一次可读35万汉字:Baichuan2-192K上线
10 月 30 日,百川智能正式发布 Baichuan2-192K 长窗口大模型,将大语言模型(
LLM
)上下文窗口的长度一举提升到了 192K token。
Baichuan2
百川
开源
ChatGLM
基于本地知识的问答机器人langchain-ChatGLM
背景 ChatGPT火了后,各种大语言模型(
LLM
)模型相继被发布,完全开源的有ChatGLM、BLOOM、LLaMA等。
langchain
RAG
检索增强生成(RAG)有什么好的优化方案?
这种方法有一些缺点,比如无法获取长程关联知识[3]、信息密度低(尤其当
LLM
context window较小时不友好)。
RAG
检索增强
RAG
检索增强生成(RAG)有什么好的优化方案
这种方法有一些缺点,比如无法获取长程关联知识[3]、信息密度低(尤其当
LLM
context window较小时不友好)。
RAG
检索增强生成
LangChain 的问题所在
Note that the `
llm
-math` tool uses an
LLM
, so we need to pass that in.
大模型
大语言模型
Agent
AI Agent / 智能体观察笔记(下)
Lilan介绍了几个解决方案: ReAct:这一方案把推理和行动集成到
LLM
中,前者使
LLM
能够与环境互动(例如使用Wikipedia搜索API),而后者提示
LLM
用自然语言生成推理痕迹。
大模型
<
...
10
11
12
13
14
15
16
17
18
19
...
>
1
2
4
5
6
7
8
9
100