首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 大模型下半场,关于Agent的几个疑问
· 造梦师手记:C站最受欢迎的大模型推出了SFW版
· 大模型评测新思路:弱智吧精华问题大全
· Suno音乐新手指南(手把手完整版教程)
· 45个 DALL-E 3 使用案例 (附提示词)
· 最受欢迎的SDXL模型,Turbo极速来袭!
· 如何提升 GPTs 的翻译效果?
· ComfyUI学习笔记2,一文看透Workflow
· 18种 DALL-E 3 炫酷的文字效果和提示词
· Flowith:革新你的工作方式,体验节点式 AI 的超流畅生产力
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
投资人逃离大
模
型
大
模
型公司开始变得举步维艰,大
模
型六虎开始有人放弃大
模
型研发转向应用。
大模型
中文LLaMA-2基座
模
型和Alpaca-2指令精调大
模
型-中文LLaMA-2以及Alpaca-2系列
模
型
) 🤖 简化的中英双语系统提示语 在一期项目中,中文Alpaca系列
模
型使用了Stanford Alpaca的指令
模
板
和系统提示语 初步实验发现,Llama
大模型
AI里的大
模
型,你了解么
AI大
模
型是“人工智能预训练大
模
型”的简称,是指具有大量参数和复杂结构的机器学习
模
型。
人工智能
开源
复旦开源中文医疗大
模
型,基于百川微调,
模
型和数据集都公开
这意味着,DISC-MedLLM不仅仅提供通用性的语言
模
型输出,更能够弥合真实世界医疗对话与通用
模
型之间的差距。
大模型
开源
微软最新
模
型Phi-3 Mini开源登场!小
模
型,大未来!
这个
模
型在多项性能测试中均比之前公认的顶尖小型AI
模
型 Llama-3 8B 更加出色,成为了新的领头羊。
Phi-3
Mini
开源模型
微软
开源
开源的大
模
型数据集
大
模
型的算法
模
型开源越来越多,大
模
型工程化也越来越稳定。
开源模型
数据集
大
模
型外挂知识库优化-大
模
型辅助向量召回
大
模
型时代,通常采用向量召回的方式从文档库里召回和用户问题相关的文档片段,输入到LLM中来增强
模
型回答质量。
大模型
开源
中文版开源Llama 2同时有了语言、多
模
态大
模
型,完全可商用
s=20 语言
模
型之外,继续开源两个中文多
模
态大
模
型 在推出首个开源 Llama2 中文语言大
模
型之后,LinkSoul.AI 团队将目光投向了目前全球尚外于发展初期的语音文本多
模
态大
模
型和图文大
模
型
开源模型
大
模
型实践总结
对于以Transformer、MOE结构为代表的大
模
型来说,传统的单机单卡训练
模
式肯定不能满足上千(万)亿级参数的
模
型训练,这时候我们就需要解决内存墙和通信墙等一系列问题,在单机多卡或者多机多卡进行
模
型训练
大模型
训练
Prompt
还在手写Prompt?这几大网站让你秒找大
模
型提示词!
比如,有没有已经写好的Prompt
模
板
,能让我们根据需求直接“CV”一波呢?
prompt
提示词
开源
中文对话大
模
型BELLE全面开源!(附:数据+
模
型+轻量化)
对以上
模
型进行量化后的轻量化
模
型,便于部署、推理。
belle
训练
大模型
大
模
型训练工程那些事
: 随着
模
型规
模
的增大,
模
型的能力和表现将出现一些新的、小
模
型上面未曾预见的特性和现象 这些原则不仅揭示了大
模
型训练的复杂性,也指导了该领域的研究和发展。
训练工程
大模型
编程
国产编程大
模
型CodeGeex
插件下载
模
型跨平台开源: 所有代码和
模
型权重开源开放,用作研究用途。
编程
大
模
型应用设计的10个思考
基于大
模
型的应用设计需要聚焦于所解决的问题,在自然语言处理领域,大
模
型本身在一定程度上只是将各种NLP任务统一成了sequence 到 sequence 的
模
型。
大模型
应用
如何使用 Megatron-LM 训练语言
模
型
在 PyTorch 中训练大语言
模
型不仅仅是写一个训练循环这么简单。
开源模型
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100