首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· Coze多智能体(Multi-Agents)模式体验!
· ComfyUI官方使用手册【官网直译+关键补充】
· 6个最佳开源TTS引擎
· 2024!深入了解 大语言模型(LLM)微调方法(总结)
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· 用上这10条神指令(prompt),让ChatGPT快速写出优质高分科研论文
· 最佳开源文生图大模型可图:安装与批量出图的完整教程
· 比 Roop 和 Reactor 更像!IP Adapter 新模型为任何人做写真
· 最强国产开源多模态大模型MiniCPM-V:可识别图片、视频,还可在端侧部署
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
什么是极限、导数、微分与积分(通俗易懂)
在微积分中,这种“变
化
的变
化
”就是导数的核心概念。
数学
微积分
科学
大模型
Meta无限长文本大模型来了:参数仅7B,已开源
MEGALODON 继承了 MEGA(带有门控注意力的指数移动平均)的架构,并进一步引入了多种技术组件来提高其能力和稳定性,包括复数指数移动平均(CEMA)、时间步归一
化
层、归一
化
注意力机制和具有两个特征的预归一
化
Meta
长文本
大模型
大模型
大模型检索增强生成(RAG)高质量报告
大语言模型的局限性和实际应用面临的问题 RAG指的就是检索相关信息来辅助大模型回答 优
化
大模型的性能通常可以从提示工程、RAG或者微调入手 RAG对比微调
RAG
大模型
检索
AIGC
《构建个人知识图谱》:让 AIGC 帮你自动构建知识图谱
、扩展和管理容器
化
应用程序。
提示词
文生图
AIGC
Prompt
一种通用的 Prompt 框架 - CRISPE
个性
化
内容:“对现有文档进行改进,个性
化
语言,使其更符合读者的实际情况。”
Prompt
提示词工程
数据库
百万token上下文窗口也杀不死向量数据库?CPU笑了
§ § Variety(多样性):现实世界的用例不仅涉及非结构
化
数据,还包括各种结构
化
数据,它们可能不容易被LLM捕获用来训练;而且企业场景中往往知识是需要实时变
化
的。
向量数据库
大模型
cpu
工具
FFmpeg之父新作——音频压缩工具 TSAC
RVQ 在介绍RVQ之前我们先揭示矢量量
化
(VQ)的一个弊端。
TSAC
音频工具
Stable Diffusion
SD好复杂,是不是很糊,一文搞懂Stable Diffusion的各种模型及用户操作界面
直接连着游戏,获得了 2fps 的风格迁移画面 一边输入,一边生成 二、以SD 基础模型进行训练和优
化
的其他模型 以SD 基础模型进行训练和优
化
的常用模型介绍
Stable
Diffusion
文生图
RAG
无限长的上下文,也干不掉的RAG
主要发现 多文档问答任务 研究者们通过控制输入上下文的长度和相关信息在上下文中的位置,发现模型在多文档问答任务中的表现会随着相关信息位置的变
化
而显著变
化
。
RAG
大模型
ChatGLM
手把手教你本地部署清华大学KEG的ChatGLM-6B模型——Windows+6GB显卡版本和CPU版本的本地部署
结合模型量
化
技术,用户可以在消费级的显卡上进行本地部署(INT4 量
化
级别下最低只需 6GB 显存)。
提示词
prompt
chatgpt
OpenAI
被时代选中的智谱 AI:成为 OpenAI,超越 OpenAI
这个问题的根源不是技术层面的决策,而是与当前社会发展、信息
化
水平、行业信息
化
程度、数据安全以及各种制度和机制有关的问题。
智谱
AI
一文读懂GPT-1:生成式预训练如何提升语言理解
摘要 GPT-1是一种半监督的语言模型,它巧妙地结合了无监督预训练和有监督微调,以优
化
语言理解任务。
GPT
大模型
微调、训练大模型概念介绍及论文笔记:Tuning系列论文笔记
并不对应到具体的token】目前是将语言模型freeze后,仅微调prompt参数,在实验中是增加了一个MLP重参数
化
,确保效果,使用MLP后的结果做预测 提示微调(Prompt-tuning) 将
训练
微调
企业
快消品企业怎么才能用上大语言模型?
如果企业自身数字
化
基础不足,前期准备和调整环节将非常有挑战。
大模型
大模型
大模型应用实践:用LLaMA 2.0, FAISS and LangChain实现基于自由知识问答
初始
化
模型管道:使用Hugging Face的transformers库为预训练的Llama-2-7b-chat-hf模型初始
化
文本生成管道。
开源模型
<
...
36
37
38
39
40
41
42
43
44
45
...
>
1
2
4
5
6
7
8
9
100