首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· AI换脸工具:facefusion使用心得
· 302.AI
· QWen1.5: 卓越模型之路
· 图解检索增强式生成(RAG)技术 | 万字长文
· LLM大模型推理输出生成方式总结
· Prompt工程如此强大,我们还需要模型训练吗?
· 搞了一个Dify开源知识库
· 从 GPT-4o 到 LiveKit:实时语音交互的开源实现
· 做自媒体消息闭塞很致命,巨好用的工具分享
· 玩转大模型必备:milvus向量数据库私有化安装部署及使用介绍
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
从零开始学习大
模
型
-第一章-大
模
型
简介
人人都看得懂的大
模
型
简介 大
模
型
就像一座庞大的图书馆,里面有非常
多
的书籍。
大模型
从零开始
AI里的大
模
型
,你了解么
而大
型
的建
模
方法往往涉及到海量的数据及参数,其学习及推断所需的时间更久,且耗费了更
多
的计算力。
人工智能
开源
复旦开源中文医疗大
模
型
,基于百川微调,
模
型
和数据集都公开
多
轮对话的问询能力:为了确保DISC-MedLLM能够胜任复杂的
多
轮医疗对话,我们以真实咨询对话记录作为信息源,利用大
模
型
进行对话重建。
大模型
中文LLaMA-2基座
模
型
和Alpaca-2指令精调大
模
型
-中文LLaMA-2以及Alpaca-2系列
模
型
-2 LLMs) 本项目基于Meta发布的可商用大
模
型
Llama-2开发,是中文LLaMA&Alpaca大
模
型
的第二期项目,开源了中文LLaMA-2基座
模
型
和Alpaca-2指令精调大
模
型
大模型
大
模
型
外挂知识库优化-大
模
型
辅助向量召回
但是很
多
时候,用户的问题是十分口语化的,描述的也比较
模
糊,这样会影响向量召回的质量,进而影响
模
型
回答效果。
大模型
开源
开源的大
模
型
数据集
大
模
型
的算法
模
型
开源越来越
多
,大
模
型
工程化也越来越稳定。
开源模型
数据集
StableDiffusion
StableDiffusion
模
型
推荐系列(功能
型
)
前两天,我分享了SDXL的通用
模
型
,这些
模
型
不仅在生成高质量图像和艺术作品方面表现出色,搭配上LoRA
模
型
还能在
多
个领域发挥重要作用,尤其是在平面设计与UI设计领域。
StableDiffusion
文生图
StableDiffusion
StableDiffusion
模
型
推荐系列(全能
型
)
那就得再加上lora
模
型
。
stablediffusion
sd
文生图
开源
微软最新
模
型
Phi-3 Mini开源登场!小
模
型
,大未来!
微软最近推出了一款新的小
型
人工智能
模
型
,名为 Phi-3 Mini。
Phi-3
Mini
开源模型
微软
大
模
型
实践总结
对于以Transformer、MOE结构为代表的大
模
型
来说,传统的单机单卡训练
模
式肯定不能满足上千(万)亿级参数的
模
型
训练,这时候我们就需要解决内存墙和通信墙等一系列问题,在单机
多
卡或者
多
机
多
卡进行
模
型
训练
大模型
训练
开源
中文对话大
模
型
BELLE全面开源!(附:数据+
模
型
+轻量化)
对以上
模
型
进行量化后的轻量化
模
型
,便于部署、推理。
belle
训练
大模型
大
模
型
训练工程那些事
多
模
态
多
模
态
能力是指能够处理和融合
多
种不同类
型
数据的
模
型
能力。
训练工程
大模型
大
模
型
应用设计的10个思考
使用LLM进行编码时的正确心
态
不是“让我们看看我们能让跳舞的熊做什么”,而是从系统中获得尽可能
多
的杠杆作用。
大模型
应用
如何使用 Megatron-LM 训练语言
模
型
我们通常需要将
模
型
分布在
多
个设备上,并使用许
多
优化技术以实现稳定高效的训练。
开源模型
ollama本地部署自然语言大
模
型
大
模
型
已经发布很久,网络上的大
模
型
形形色色,现在已然是群英荟萃,那么,如何在本地运行一个大
模
型
?
ollama
语言大模型
部署
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100