首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· Coze多智能体(Multi-Agents)模式体验!
· ComfyUI官方使用手册【官网直译+关键补充】
· 6个最佳开源TTS引擎
· 2024!深入了解 大语言模型(LLM)微调方法(总结)
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· 用上这10条神指令(prompt),让ChatGPT快速写出优质高分科研论文
· 最佳开源文生图大模型可图:安装与批量出图的完整教程
· 比 Roop 和 Reactor 更像!IP Adapter 新模型为任何人做写真
· 最强国产开源多模态大模型MiniCPM-V:可识别图片、视频,还可在端侧部署
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
微软
2.7B能打Llama 2 70B,微软祭出「小语言模型」!96块A100 14天训出Phi-2,碾压谷歌Gemini nano
Phi-2所使用的训练
数
据
,包含合成
数
据
集,——专门用于教授模型常识推理和一般知识(科学、日常活动和心智理论等)。
小语言模型
LLM
如何成为LLM提示词大师!「大语言模型的底层心法」
例如,LLM可以阅读文档并提取名称、日期、
数
字或其他特定
数
据
。
大模型
提示词
OpenAI
来自OpenAI应用研究主管关于Agent的万字长文-AI Agents介绍
为了避免过拟合,CoH添加了一个正则化项来最大化预训练
数
据
集的对
数
似然。
Agent
ChatGPT
清华智能体「XAgent」比ChatGPT4.0还好用!
各种复杂任务都能自主解决,例如:让它使用python来分析给定的
数
据
通过这个案例可以看到,XAgent会分步逐一分析并解答问题
ChatGPT
智能体
Agent
大模型
大模型检索增强生成RAG的优化
此外,还可对query召回的文档块集合进行处理,比如:元
数
据
过滤[7]、重排序减少文档块
数
量[2]。
RAG
检索增强
大模型
LLM
2023年LLM如何入门?请看这篇综述!
LLM的预训练语料库的
数
据
来源可以分为通用
数
据
和专业
数
据
两种类型。
大模型
大模型
GitHub狂飙3万star的LLM公开资料 - 大模型入门教程
数
据
科学库:包括熟悉用于
数
值运算的 NumPy,用于
数
据
操作和分析的 Pandas,以及用于
数
据
可视化的 Matplotlib 和 Seaborn。
LLM
大模型
GitHub
大模型
大模型训练为什么用A100不用4090
回到大模型训练所需的总算力,其实很简单,6 * 模型的参
数
量 * 训练
数
据
的 token
数
就是所有训练
数
据
过一遍所需的算力。
大模型
阿里
[论文] 阿里提出AgentScope:灵活强大的智能体框架
然而,满足这些要求带来了新的挑战,包括确保不同格式间的
数
据
一致性、在
数
据
传输和智能体通信过程中保持高性能,以及避免为开发者和用户引入复杂概念。
AgentScope
语言大模型
智能体
教程
AI声音克隆 | 最全最简教程(权威版)
GPT-SoVITS在训练时间上具有明显的优势,因为它支持Few-shot学习,能够在短时间内(如一分钟的语音
数
据
)训练出具有相似音色的模型。
声音克隆
教程
混合专家模型 (MoE) 详解
在传统的稠密模型中,所有的参
数
都会对所有输入
数
据
进行处理。
MoE大模型
用户意图对齐,无需人工标注,Zephyr-7B 超越 Llama2-Chat-70B
- 这两个响应被用于直接偏好优化,其中模型会学习根
据
反馈
数
据
优化其偏好。
小型语言模型
Zephyr-7B
语义检索系统[全]:基于Milvus+ERNIE+SimCSE+In-batch Negatives样本策略的学术文献语义检索
§ 兼具无监督
数
据
和 有监督
数
据
:融合模型 § 针对多种
数
据
场景的专业方案 § 进一步优化方案: 面向领域的预训练 Domain-adaptive Pretraining
开源模型
Nvidia发布Llama3-ChatQA-1.5: 提升对话问答和表格推理能力,平均性能超越GPT-4
相比之前的ChatQA 1.0版本,其训练方法和
数
据
集都进行了优化,尤其增强了对表格
数
据
和算术计算的理解能力。
Llama3-ChatQA-1.5
对话问答模型
RAG
简单提升RAG的10种方法
数
据
清理 RAG 将LLM的能力与特定
数
据
联系起来。
RAG
大模型
<
...
26
27
28
29
30
31
32
33
34
35
...
>
1
2
4
5
6
7
8
9
100