我的收藏
退出登录
全部
聊天魔法
图片魔法
写作魔法
音视频魔法
编程魔法
开源训练
微软打破Decoder-Only架构!大幅降低GPU内存需求,网友:把Llama3 70B弄20GB GPU上运行
·
10大高效的Super Prompts,让GPT拥有超能力!
·
基于中文金融知识的 LLaMA 系微调模型的智能问答系统:LLaMA大模型训练微调推理等详细教学
·
谈谈RAG存在的一些问题和避免方式
·
RAT = CoT + RAG
·
微信向量检索分析一体化数仓探索:OLAP For Embedding
·
如何最简单、通俗地理解Transformer?
·
再见了ComfyUI,WebUI也有了工作流
·
LangChain + ChatGLM2-6B 搭建私域专属知识库
·
微软最新模型Phi-3 Mini开源登场!小模型,大未来!!
·
国产“小钢炮”MiniCPM3-4B:小参数,大能量!
·
大语言模型的拐杖——RLHF基于人类反馈的强化学习
·
朱啸虎讲了一个中国现实主义AIGC故事
·
大模型的研究新方向:混合专家模型(MoE)
·
手把手!做Llama3的MoE专家混合模型!底层原理怎样的?做自己的MoE模型?需要多少算力?
·
<
...
35
36
37
38
39
40
41
42
43
44
...
>