首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 国内外开源大语言模型一览表
· AI必备Prompt技巧《提问的艺术——让AI导出高质量答案》
· 硬核解读Stable Diffusion(系列一)
· 掌握这10个AI 工具用1小时完成别人1周的工作
· 7.1k Star!RAGFlow:最新开源OCR+深度文档理解的RAG引擎、大海捞针测试、降低幻觉、服务化API集成进业务!
· 如何下载及使用通义千问7B开源大模型
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· 使用python调用comfyui-api,实现出图自由
· Stable Diffusion生成美女正向词和反向词示例
· 比 Roop 和 Reactor 更像!IP Adapter 新模型为任何人做写真
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
人工智能
深度洞察:人工智能体(AI Agent)2024年重要发展趋势指南
然而,
LLM
只是已经开始的GenAI革命的序幕。
AI
Agent
人工智能
大模型
Meta无限长文本大模型来了:参数仅7B,已开源
近日,谷歌提出的 Infini-Transformer 引入有效方法,可以将基于 Transformer 的大型语言模型 (
LLM
) 扩展到无限长输入,而不增加内存和计算需求,吸引了人们的关注。
Meta
长文本
大模型
LLM
PymuPDF4llm:PDF 提取的革命
随着人工智能和自然语言处理技术的发展,对能够与大型语言模型(LLMs)无缝配合的 PDF 提取工具的需求日益增长(利用
LLM
从非结构化PDF中提取结构化知识)。
PymuPDF4llm
PDF
【2023.10】看目前巨头的AI原生产品布局
0、前言 0.1、为什么要与 基座
LLM
小公司的文章分开 巨头公司跟单纯的基座
LLM
公司有很多本质的不同,例如: 对于巨头来说,没有“该选择做哪些而不做另一些”的问题,答案肯定是“我都要”,问题在于
大模型
产品
大模型
企业如何更好的使用大模型?都有哪些框架和方案
So you want to build an AI application powered by
LLM
: Let’s talk about Embedding and Semantic Search
人工智能
大模型
史上最好的中文大预言模型出现了!!!
测试问答:详述
LLM
和GPT区别 通义千问,虽然他说自己不能联网,时效性问题有些可以回答的,日期以及A股涨幅,我猜是开放了某些接口,具体的新闻是无法回答的,可以文档解析
Kimi
Chat
大模型
微调
Baichuan-13B 保姆级微调范例
这可能是你能够找到的最容易懂的,最完整的,适用于各种NLP任务的Baichuan-13B-Chat的finetune教程~ Baichuan-13B是百川智能于2023年7月11日发布的开源中英双语
LLM
开源模型
Agent
RPA终极发展方向瞄准AI Agent,超自动化智能体时代已经开启
扩展阅读:从引入并集成多
LLM
到发布自研模型,RPA与
LLM
的融合进度怎样了?
RPA
自动化
Prompt
如何看待大型语言模型的Prompt
第一个区别是,
LLM
是一种连续的、插值式的数据库。
prompt
大语言模型
大模型
全球最强长文本大模型,一次可读35万汉字:Baichuan2-192K上线
10 月 30 日,百川智能正式发布 Baichuan2-192K 长窗口大模型,将大语言模型(
LLM
)上下文窗口的长度一举提升到了 192K token。
Baichuan2
百川
开源
ChatGLM
基于本地知识的问答机器人langchain-ChatGLM
背景 ChatGPT火了后,各种大语言模型(
LLM
)模型相继被发布,完全开源的有ChatGLM、BLOOM、LLaMA等。
langchain
RAG
检索增强生成(RAG)有什么好的优化方案?
这种方法有一些缺点,比如无法获取长程关联知识[3]、信息密度低(尤其当
LLM
context window较小时不友好)。
RAG
检索增强
RAG
检索增强生成(RAG)有什么好的优化方案
这种方法有一些缺点,比如无法获取长程关联知识[3]、信息密度低(尤其当
LLM
context window较小时不友好)。
RAG
检索增强生成
LangChain 的问题所在
Note that the `
llm
-math` tool uses an
LLM
, so we need to pass that in.
大模型
大语言模型
Agent
AI Agent / 智能体观察笔记(下)
Lilan介绍了几个解决方案: ReAct:这一方案把推理和行动集成到
LLM
中,前者使
LLM
能够与环境互动(例如使用Wikipedia搜索API),而后者提示
LLM
用自然语言生成推理痕迹。
大模型
<
...
10
11
12
13
14
15
16
17
18
19
...
>
1
2
4
5
6
7
8
9
100