首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 必看!阿里通义千问完整技术报告
· MCP服务介绍及应用场景报告-来自Manus
· 复旦开源中文医疗大模型,基于百川微调,模型和数据集都公开
· 国内厂商语音识别与Whisper评测:现状与概况对比
· 实测:本地跑llama3:70B需要什么配置
· SD插件|EasyPhoto|妙鸭相机平替|美颜算法
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· Stable Diffusion教程:提示词
· 建议收藏:超详细ChatGPT(GPT 4.0)论文润色指南
· 爆火的“女孩的一生”,plus版教程它来了
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
[中文开源震撼首发]33B QLoRA大语言模型Anima真的太强大了!QLoRA技术可能是AI转折点!
问题:完成以下的编程任务:用python写一下不带注释的Dijkstra算法的代码 回答: 问题:如果将红色和黄色
混
合在一起会是什么颜色?
开源模型
Python
Python状态机:优雅处理复杂业务逻辑的利器
在实际应用中,我们经常会使用这两种状态机的
混
合形式。
Python状态机
设计模式
企业
检索增强生成(RAG):LLM企业级应用落地的挑战与思考
(3)语义检索可以考虑采用 GPU 进行并行加速,或者使用量化、
混
合精度技术来加速查询。
大语言模型
RAG检索增强
FaceFusion又更新咯,增强功能再增强!
GFPGAN 和 GPEN 添加到面部增强器 将 RealESRGAN_x2plus 和 RealESRNet_x4plus 添加到帧增强器 实现面部增强器和帧增强器的
混
合
FaceFusion
文生图
大模型
Dify:大模型创业开源工具,46,558 行代码,完全开源
GitHub 项目地址:https://github.com/langgenius/dify (Dify.AI 采用 Apache 2.0+MIT
混
合开源协议) Dify.AI
Dify
开源工具
OpenAI
被时代选中的智谱 AI:成为 OpenAI,超越 OpenAI
另外,中英文
混
合数据的处理也是一个问题,模型需要在中英文上都表现良好,有效地跨语言工作。
智谱
AI
开源
3 个令人惊艳的 AI 文档神器,开源了!
在答案中
混
入了各种不准确信息,在无形之中,增添了用户的信息筛选成本。
大模型
开源模型
ChatGLM
手把手带你微调一个自己的 ChatGLM2-6B 模型
ChatGLM2-6B 使用了 GLM 的
混
合目标函数,经过了 1.4T 中英标识符的预训练与人类偏好对齐训练,评测结果显示,相比于初代模型,ChatGLM2-6B 在 MMLU(+23%)、
ChatGLM2-6B
ChatGPT
麦肯锡专家都在用的方法:用ChatGPT速览用户研究领域的 50 个核心概念
研究方法 Mixed Methods
混
合方法
用户
工作
提示词
精通结构化提示词:如何精确操控指令的作用域与优先级
多个规则同时存在时,指令执行顺序是
混
乱的。
提示词
结构化
大模型
开源大模型王座易主!谷歌Gemma杀入场,笔记本可跑,可商用
指令调优 谷歌通过在仅文本、仅英语合成和人类生成的 prompt 响应对的
混
合数据上进行监督微调(SFT),以及利用在仅英语标记的偏好数据和基于一系列高质量 prompt
开源模型
Gemma
大模型
开源大模型部署及推理所需显卡成本必读:也看大模型参数与显卡大小的大致映射策略
以下是计算模型推理时所需显存的一些关键因素: 模型结构: 模型的结构包括层数、每层的神经
元
数量、卷积核大小等。
开源模型
视频
AI视频新技能!这套流程教你打造视频人物和声音完美同步!
实现此目标需要后期处理来
混
合音频和视频,使它们协同工作。
AI视频
大模型
我为什么不看好大模型行业
Mid journey是个神话,十几个人1亿美
元
的这样一个量级的收入,人均的产出非常高。
大模型
微调
LLM微调经验&认知
多TASK或者多语言
混
合微调可能会有更好的效果,TASK不足的情况下考虑增加目标任务的数据量 9.
LLM
大模型
<
...
10
11
12
13
14
15
16
17
18
19
...
>
1
2
4
5
6
7
8
9
100