首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· SD入门教程六:ControlNet基础入门
· AI声音克隆 | 最全最简教程(权威版)
· 13个神级Chatgpt指令,助你小说丝滑过审
· Stable Diffusion 常用插件推荐
· 大语言模型应用中的文本分块策略
· 大语言模型定制化应用的三种方式:Prompt engineering、Fine tuning、Pre-trainning的区别
· 11个非常简短却十分神奇的 ChatGPT 指令,刷新你的认知
· Stable Diffusion | 2D表情3D化,看着笑不停
· Midjourney AI 绘画美女提示词分享一
· 【上篇】深度解析AI大语言模型(LLM)在企业应用的关键技术与典型架构
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Langchain的一些问题和替代选择
Langchain因其简化
大
型
语言
模
型
(llm)的交互方面的到关注。
大模型
RAG
LangChain: LLM 应用聚焦的两
大
方向,RAG 和 Agents
接入的方式也
大
同小异,首先检索外挂数据源中与用户给出的上下文相关的内容,合并之后做 embedding 给到所用的 llm ,最后由 llm 根据
模
型
自己的认知,做出回答。
大模型
OpenAI
Prompt逆向工程:轻松复刻OpenAI“神级”提示词
因为“信、达、雅”的翻译,可能会令
模
型
更容易误解指令要求。
大模型
如何修复GPT幻觉、及评估数据集的挑战
生成
大
型
语言
模
型
(LLM) 可以对各种用户提示生成高度流畅的响应。
大模型
Agent
AI Agent / 智能体观察笔记(中)
》的论文,论文中介绍了一个应用
大
语言
模
型
实现
模
仿可致信人类行为的生成式智能体。
大模型
微调
四种微调技术详解:SFT 监督微调、LoRA 微调、P-tuning v2、Freeze 监督微调方法
当谈到人工智能
大
语言
模
型
的微调技术时,我们进入了一个令人兴奋的领域。
大模型
知识树:一个方法,教你构建「终身知识体系」
你只需要记几个思维
模
型
,而这并不需要多
大
的记忆量。
大模型
开源
书生·万卷:难得的中文开源数据集
搞
大
模
型
训练,最重要的就是高质量的数据集。
大模型
RAG
改进召回(Retrieval)和引入重排(Reranking)提升RAG架构下的LLM应用效果
如前文LLM应用架构之检索增强(RAG)的缘起与架构介绍,RAG架构很好的解决了当前
大
模
型
Prompt learning过程中context window限制等问题,整体架构简明清晰,易于实现,得到了广泛的应用
大模型
一个充满多智能体的数字社会正在浮现,商业的底层逻辑已进入重构倒计时
从Lilian Weng的《LLM Powered Autonomous Agents》让我们初步了解,基于
大
型
语言
模
型
的AI-Agents systems是一个什么样的架构形式,从单一智能体的Planning
大模型
AIGC
AIGC沸腾200多天后,投资人达成三
大
共识
“游戏” 在由算力基础设施层、
模
型
层(底座
模
型
、开源
模
型
、自建垂类
大
模
型
)、应用层构成的AI新浪潮生态架构中,一些确定性的机会显现出来。
大模型
LLM
谈谈LLM在推荐域的渗透,探索推荐新范式
utm_content=g_1000376022 作者|葬青 前言 最近
大
模
型
真的很火,从个人到公司,各行各业都在学习
大
模
型
、总结
大
模
型
和尝试应用
大
模
型
。
大模型
为什么说AI现在还不行!
注1:真对
大
模
型
下新计算
模
式的技术性感兴趣可以扫文末二维码瞄瞄,这个课程是我一哥们连同知乎做的,比较正经不扯淡的课程。
大模型
开源
玩一玩阿里通义千问开源版,Win11 RTX3060本地安装记录
这应该是国内第一个
大
厂开源的
大
语言
模
型
吧。
大模型
ChatGLM
从0到1基于ChatGLM-6B使用LoRA进行参数高效微调
以下是我们目前发现的一些问题: ·
模
型
容量较小:6B 的小容量,决定了其相对较弱的
模
型
记忆和语言能力
大模型
<
...
24
25
26
27
28
29
30
31
32
33
...
>
1
2
4
5
6
7
8
9
100