我的收藏
退出登录
全部
聊天魔法
图片魔法
写作魔法
音视频魔法
编程魔法
开源训练
人工智能大语言模型微调技术:SFT 、LoRA 、Freeze 监督微调方法
·
深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型
·
停用词(Stop Words)的价值、收集与使用
·
PDFTriage:面向长篇结构化文档的问答
·
基于大模型(LLM)的Agent 应用开发
·
手把手!做Llama3的MoE专家混合模型!底层原理怎样的?做自己的MoE模型?需要多少算力?
·
AI产品经理视角:如何构建人工智能产品
·
一文带你认识ELMo
·
【一步一步引导】从零详细地梳理一个完整的 LLM 训练流程
·
高级 RAG 技术——图解概览
·
Elasticsearch Relevance Engine---为AI变革提供高级搜索能力[ES向量搜索、常用配置参数]
·
从零开始:构建你的首个ComfyUI工作流
·
Transformer速查宝典:模型、架构、训练方法的论文都在这里了
·
Chinese-LLM开源中文大语言模型合集
·
GitHub狂飙3万star的LLM公开资料 - 大模型入门教程
·
<
1
2
3
4
5
6
7
>