首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· Coze多智能体(Multi-Agents)模式体验!
· 60.2K Star!别再熬夜写样式了!Screenshot-to-Code:截个图,代码全搞定!!
· Rerank——RAG中百尺竿头更进一步的神器,从原理到解决方案
· 实测:本地跑llama3:70B需要什么配置
· Stable Diffusion插件:提示词
· 完全指南——使用python提取PDF中的文本信息(包括表格和图片OCR)
· 文生图提示词prompt详解
· 终极福利:15个中文AI写作提示词帮你覆盖所有主流写作场景!!!
· Dify:大模型创业开源工具,46,558 行代码,完全开源
· AI换脸工具:facefusion使用心得
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大语言模型应用中的文本分块策略
在某些情况下,例如将
GPT
-4 与 32k 上下文窗口一起使用时,拟合区块可能不是问题。
开源模型
开源
摆脱 OpenAI 依赖,8 分钟教你用开源生态构建全栈 AI 应用
· Llama 2-Chat-70B:Llama 2系列模型是一组
GPT
-like
开源模型
GGUF格式详解
GGUF文件全称是
GPT
-Generated Unified Format,是由Georgi Gerganov定义发布的一种大模型文件格式。
GGUF
大模型
Transformer
图解 Transformer——功能概览
使得类
GPT
系列这样的模型,不仅能理解和生成自然语言,还能在多种任务上表现出色,如文本摘要、问答、翻译等。
Transformer
大模型
图解
OpenAI
OpenAI的官方Prompt工程指南详解 - 看这一篇真的就够了
OpenAI 在之前的研究中已经使用
GPT
-3 的变体研究了这种总结书籍的过程的有效性。
提示词
prompt
OpenAI
OpenAI的官方Prompt工程指南详解 - 看这一篇真的就够了!
OpenAI 在之前的研究中已经使用
GPT
-3 的变体研究了这种总结书籍的过程的有效性。
OpenAI
Prompt
提示词
停用词(Stop Words)的价值、收集与使用
这几年,我们经常使用字粒度的语言模型,比如BERT、
GPT
来做NLP任务。
停用词
我们需要的不是智能体,而是工作流(5000字保姆式教学)
工作流前与 AI 协作方式: 工作流前,我们大多数人通过 prompt (提示词)与各种大模型交互,比如
GPT
,MJ,可灵,将我们想要的内容(文本,图片,视频)创作出来,明显提高我们创作效率。
工作流
教学
大模型
大模型应用发展的方向|代理 Agent 的兴起及其未来(上)
LLM在构建自主代理人方面具有巨大潜力,例如Auto-
GPT
。
大模型
LLM
最详细的文本分块(Chunking)方法——可以直接影响基于LLM应用效果
在某些情况下,比如使用具有32k上下文窗口的
GPT
-4时,拟合块可能不是问题。
RAG
大模型
大模型
总结!大模型微调(Tuning)的常见方法
model_name_or_path, return_dict=True) model = get_peft_model(model, peft_config)
GPT
微调
大模型
AGI
Yann LeCun杨立昆最新观点:AGI不存在
他批评依赖
GPT
等大型语言模型 (LLM) 来实现“超人智能”,理由是它们无法有效理解物理世界、推理或计划。
AGI
大语言模型
观点
Agent
AI Agent / 智能体观察笔记(中)
目前架构所基于的大语言模型是OpenAI的
GPT
,智能体的核心组件包括”记忆、计划和反思“。
大模型
RAG
2023检索增强生成技术(RAG)研究进展
GPT
-4 的问世是一个重要里程碑,它采用了一种将 RAG 与微调技术结合的新方法,同时继续优化预训练策略。
RAG
检索增强
手把手!做Llama3的MoE专家混合模型!底层原理怎样的?做自己的MoE模型?需要多少算力?
此外,有传言
GPT
-4 是 MoE,有道理的,因为与密集模型相比,为 OpenAI 运行和训练要便宜得多。
MoE
专家混合模型
<
...
23
24
25
26
27
28
29
30
31
32
>
1
2
4
5
6
7
8
9
100