首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 火山写作:一款助力写作能力提升的AI助手
· 【TTS语音克隆开源最强王者】5款爆火开源模型(Fish、F5、GPT、CosyVoice、MaskGCT)效果对比,等你来评!
· MCP服务介绍及应用场景报告-来自Manus
· 技术布道 | Prompt评估与优化,让魔法打败魔法,通过大模型获得更优质的Prompt进而获得更优质的内容
· Stable Diffusion 常用LoRA模型推荐
· AI创作 |如何通过GPT进行漫画视频的故事改写
· 大语言模型微调:定制自己的微调数据集
· 11个顶级的Prompts,用GPT学习的天花板
· SD出图新思路
· 国产大模型与全球最强大模型大比拼:语义理解、数学推理同台竞技,究竟谁更厉害
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
省钱!微软开源框架LLMLingua + LlamaIndex实现提示词压缩
在RAG应用中,用户的查询或者提问,会被用于向量
存
储查询,以获得最相似的信息片段。
LLMLingua
LlamaIndex
开源框架
造梦师手记:C站首推的动漫模型竟然是十八禁?
从某种意义上讲,随着SDXL大模型的突飞猛进,SD1.5模型已经没有
存
在的价值。
stablediffusion
sd
文生图
大模型
深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型
2.2、初次发布后几小时
内
迅速实现逆向工程 在 Mixtral 8x7B 刚一发布的几小时
内
,AI 社区的爱好者和开发者就迅速展现了他们的敏捷和合作精神,对其进行了逆向工程。
开源模型
Mixtral
8x7B
大模型
最强国产开源多模态大模型MiniCPM-V:可识别图片、视频,还可在端侧部署
[2024.05.28] 💫 我们现在支持 MiniCPM-Llama3-V 2.5 的 LoRA 微调,更多
内
存
使用统计信息可以在这里找到。
minicpm
面壁
大模型
国产编程大模型CodeGeex
2022-12-04: 我们开源了量化代码(需要更少的显
存
:27GB -> 15GB)以及模型并行代码(可以运行在多个显
存
至少8GB的GPUs上)。
编程
微调
微调大型语言模型-核心思想和方法介绍
在此过程中,索引模块将文档或网站分解为更小的部分,将它们转换为可
存
储在矢量数据库中的矢量。
大模型
训练
LLM
ChatPDF | LLM文档对话 | pdf解析关键问题
笔者认为非常重要的一点是文档
内
容解析。
大模型
baichuan2 有什么好的 深挖论文中涉及的知识点
通过利用 xFormers 的优化注意力与偏见能力,我们可以在减少
内
存
开销的同时,高效地集成 ALiBi 的基于偏见的位置编码。
大模型
大模型
大模型训练工程那些事
对显
存
预估的公式如下: Per
GPU
Activation Memory = L * s * b * h * 34 / N(GPUS) = 87.04 GiB Per
GPU
Model States
训练工程
大模型
爬虫
微信搜狗爬虫WechatSogou - 从微信公众号获取文章的利器
这类库为能为用户学习研究提供一定便利,也能为官方安全升级提供有益线索,但也可
存
在被非法使用的风险。
WechatSogou
微信
搜狗
大模型
我为什么不看好大模型行业
它提供的不仅仅是
GPU
硬件,更是一系列基于
GPU
去开发软件的工具链,几十年培养出来的这个生态为它带来难以撼动的优势。
大模型
开源
开源大语言模型完整列表
LangChain 提供了
内
存
的标准接口,一系列
内
存
实现,以及使用
内
存
的链 / 代理示例。
开源模型
大语言模型
Stable Diffusion
Stable Diffusion WebUI v1.8.0重大更新!
通过CUDA,开发者可以编写能够直接在
GPU
上执行的代码,从而利用
GPU
的并行处理能力来加速计算过程。
SD
画图
大模型
最强开源大模型Llama 3,在扎克伯格设想中其实是这样的
我们进入了这种境地,需要更多的
GPU
来训练模型,这对我们的服务来说是一个巨大的进步,我们不再只是对你关注的人、你的朋友和你关注的任何页面的
内
容进行排名,我们大力推广所谓的无关联
内
容。
Llama
3
大语言模型
大模型
重磅来袭!Llama中文社区开源预训练中文版Atom-7B大模型
由于在处理较长的输入序列时,
内
存
消耗的问题可能会导致“
内
存
爆炸”现象。
大模型
<
...
5
6
7
8
9
10
11
12
13
14
...
>
1
2
4
5
6
7
8
9
100