首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· Coze多智能体(Multi-Agents)模式体验!
· ComfyUI官方使用手册【官网直译+关键补充】
· 6个最佳开源TTS引擎
· 2024!深入了解 大语言模型(LLM)微调方法(总结)
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· 用上这10条神指令(prompt),让ChatGPT快速写出优质高分科研论文
· 最佳开源文生图大模型可图:安装与批量出图的完整教程
· 比 Roop 和 Reactor 更像!IP Adapter 新模型为任何人做写真
· 最强国产开源多模态大模型MiniCPM-V:可识别图片、视频,还可在端侧部署
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
人手一个编程助手!北大最强代码大模型CodeShell-7B开源,性能霸榜,IDE插件全开源
以
GPT
-2为基础,采用fill-in-middle(FIM)模式支持代码特有的补齐生成方法,引入Grouped-Query Attention和ROPE位置编码,最终形成了CodeShell高性能且易于扩展上下文窗口的独特架构
开源模型
AI编程
大语言模型应用中的文本分块策略
在某些情况下,例如将
GPT
-4 与 32k 上下文窗口一起使用时,拟合区块可能不是问题。
开源模型
开源
摆脱 OpenAI 依赖,8 分钟教你用开源生态构建全栈 AI 应用
· Llama 2-Chat-70B:Llama 2系列模型是一组
GPT
-like
开源模型
GGUF格式详解
GGUF文件全称是
GPT
-Generated Unified Format,是由Georgi Gerganov定义发布的一种大模型文件格式。
GGUF
大模型
OpenAI
OpenAI的官方Prompt工程指南详解 - 看这一篇真的就够了
OpenAI 在之前的研究中已经使用
GPT
-3 的变体研究了这种总结书籍的过程的有效性。
提示词
prompt
Transformer
图解 Transformer——功能概览
使得类
GPT
系列这样的模型,不仅能理解和生成自然语言,还能在多种任务上表现出色,如文本摘要、问答、翻译等。
Transformer
大模型
图解
停用词(Stop Words)的价值、收集与使用
这几年,我们经常使用字粒度的语言模型,比如BERT、
GPT
来做NLP任务。
停用词
大模型
大模型应用发展的方向|代理 Agent 的兴起及其未来(上)
LLM在构建自主代理人方面具有巨大潜力,例如Auto-
GPT
。
大模型
LLM
最详细的文本分块(Chunking)方法——可以直接影响基于LLM应用效果
在某些情况下,比如使用具有32k上下文窗口的
GPT
-4时,拟合块可能不是问题。
RAG
大模型
Agent
AI Agent / 智能体观察笔记(中)
目前架构所基于的大语言模型是OpenAI的
GPT
,智能体的核心组件包括”记忆、计划和反思“。
大模型
RAG
2023检索增强生成技术(RAG)研究进展
GPT
-4 的问世是一个重要里程碑,它采用了一种将 RAG 与微调技术结合的新方法,同时继续优化预训练策略。
RAG
检索增强
大模型
总结!大模型微调(Tuning)的常见方法
model_name_or_path, return_dict=True) model = get_peft_model(model, peft_config)
GPT
微调
大模型
AGI
Yann LeCun杨立昆最新观点:AGI不存在
他批评依赖
GPT
等大型语言模型 (LLM) 来实现“超人智能”,理由是它们无法有效理解物理世界、推理或计划。
AGI
大语言模型
观点
教程
【万字长文-进阶教程】一文带你从入门到精通ChatTTS, 手把手教你固定音色、设置语速、添加停顿词、口头语、笑声!!
对应的函数: def sample_random_speaker(self, ): dim = self.pretrain_models['
gpt
chattts
tts
文生语音
手把手!做Llama3的MoE专家混合模型!底层原理怎样的?做自己的MoE模型?需要多少算力?
此外,有传言
GPT
-4 是 MoE,有道理的,因为与密集模型相比,为 OpenAI 运行和训练要便宜得多。
MoE
专家混合模型
<
...
21
22
23
24
25
26
27
28
29
30
>
1
2
4
5
6
7
8
9
100