首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 第一性原理以及第一性原理是怎么帮马斯克成为首富的
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 从第一性原理看大模型Agent技术
· ComfyUI官方使用手册【官网直译+关键补充】
· 芯片拼接技术:英伟达新核弹,站在苹果的肩膀上
· AI声音克隆 | 最全最简教程(权威版)
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· 生成式AI与大语言模型的区别
· 自己电脑上跑大语言模型(LLM)要多少内存?
· 深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
微调
Baichuan-13B 保姆级微调范例
这可能是你能够找到的最容易懂的,最完整的,适用于各种NLP任务的Baichuan-13B-Chat的finetune教程~ Baichuan-13B是百川智能于2023年7月11日发布的开源中英双语
LLM
开源模型
Prompt
如何看待大型语言模型的Prompt
第一个区别是,
LLM
是一种连续的、插值式的数据库。
prompt
大语言模型
开源
国内外开源大语言模型一览表
为了促进
LLM
在法律甚至其他垂直应用落地的开放研究,本项目开源了中文法律大模型,并针对
LLM
和知识库的结合问题给出了法律场景下合理的解决方案。
大模型
Agent
谈Agent构建平台的设计
当我们认真阅读各个商业
LLM
API的文档和开源
LLM
的各种技术报告后,会发现不同的
LLM
实例推荐使用的temperature范围都是明显不同的。
Agent
构建
ChatGLM
基于本地知识的问答机器人langchain-ChatGLM
背景 ChatGPT火了后,各种大语言模型(
LLM
)模型相继被发布,完全开源的有ChatGLM、BLOOM、LLaMA等。
langchain
大模型
企业如何更好的使用大模型?都有哪些框架和方案
So you want to build an AI application powered by
LLM
: Let’s talk about Embedding and Semantic Search
人工智能
大模型
史上最好的中文大预言模型出现了!!!
测试问答:详述
LLM
和GPT区别 通义千问,虽然他说自己不能联网,时效性问题有些可以回答的,日期以及A股涨幅,我猜是开放了某些接口,具体的新闻是无法回答的,可以文档解析
Kimi
Chat
大模型
Agent
RPA终极发展方向瞄准AI Agent,超自动化智能体时代已经开启
扩展阅读:从引入并集成多
LLM
到发布自研模型,RPA与
LLM
的融合进度怎样了?
RPA
自动化
大模型
全球最强长文本大模型,一次可读35万汉字:Baichuan2-192K上线
10 月 30 日,百川智能正式发布 Baichuan2-192K 长窗口大模型,将大语言模型(
LLM
)上下文窗口的长度一举提升到了 192K token。
Baichuan2
百川
开源
企业
快消品企业怎么才能用上大语言模型?
以ChatGPT为起点,大语言模型(
LLM
)用全面的技术创新,以及在用户和产业中的应用落地,再次掀起了一个AI新浪潮。
大模型
Ollama最新更新v0.1.33,实现了多并发可同时与多个模型聊天对话!
新版本更新如下 增加了多个新的
LLM
型号: · Llama 3:由Meta推出的新模型
ollama
语言大模型
聊天
Agent
AI Agent / 智能体观察笔记(下)
Lilan介绍了几个解决方案: ReAct:这一方案把推理和行动集成到
LLM
中,前者使
LLM
能够与环境互动(例如使用Wikipedia搜索API),而后者提示
LLM
用自然语言生成推理痕迹。
大模型
大模型
大模型推理能力增强方法总结
思维图(GoT)的关键是能够将
LLM
生成的信息建模为任意图,其中信息单位是顶点,边代表顶点之间的依赖关系。
推理能力
大模型
RAG
检索增强生成(RAG)有什么好的优化方案?
这种方法有一些缺点,比如无法获取长程关联知识[3]、信息密度低(尤其当
LLM
context window较小时不友好)。
RAG
检索增强
RAG
检索增强生成(RAG)有什么好的优化方案
这种方法有一些缺点,比如无法获取长程关联知识[3]、信息密度低(尤其当
LLM
context window较小时不友好)。
RAG
检索增强生成
<
...
9
10
11
12
13
14
15
16
17
18
...
>
1
2
4
5
6
7
8
9
100