首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 第一性原理以及第一性原理是怎么帮马斯克成为首富的
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 从第一性原理看大模型Agent技术
· ComfyUI官方使用手册【官网直译+关键补充】
· 芯片拼接技术:英伟达新核弹,站在苹果的肩膀上
· AI声音克隆 | 最全最简教程(权威版)
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· 生成式AI与大语言模型的区别
· 自己电脑上跑大语言模型(LLM)要多少内存?
· 深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Prompt
大语言模型定制化应用的三种方式:Prompt engineering、Fine tuning、Pre-trainning的区别
在实现大语言模型的定制化应用中,的确有几种常用的方式:Prompt Engineering(提示工程)、Fine-tuning(
微
调)和Pre-training(预训练)。
大模型
ChatGPT
这个能写出10W+爆款文章的ChatGPT提示词,你敢用吗?
之前,我创建了一套mimeng风格的写作提示词,素材是几十篇10W+
微
信公众号文章,提炼出4条通用规律。
写文章
芯片拼接技术:英伟达新核弹,站在苹果的肩膀上
在芯片制造中,很大一部
分
成本就来自掩膜版制作。
芯片拼接
芯片拼接技术:英伟达新核弹,站在苹果的肩膀上!
在芯片制造中,很大一部
分
成本就来自掩膜版制作。
芯片拼接技术
ChatGLM
傻瓜式!一键部署ChatGLM3,免去环境烦恼+开箱即用!集成API调用!本地化界面操作!
https://www.123pan.com/s/nX5VVv-QffsA.html 提取码:1vTH 【旧版】傻瓜式一键部署+
微
调的封装包!
ChatGLM3
大模型
基于Ollama本地部署Llama3指南!
众所周知,扎克伯格的Meta又开源了Llama3 8B和70B的预训练(pretrained)和指令
微
调(instruction-tuned)两个版本,还有个更大的400B参数预计在今年夏天发布,这个400B
LLama3
ollama
大模型
深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型
2.3、专注于指令跟随版本的
微
调 开发者们深入研究 Mixtral 8x7B 的潜能时,一个重点是对其进行
微
调,特别是针对那些能够跟随指令操作的版本。
开源模型
Mixtral
8x7B
ChatGPT
三个大模型(ChatGPT,文心一言,Baichuan-13B),帮我生成中医《本草纲目》的训练数据
最近想做一些中文大模型的
微
调实验,于是从祖国的文化瑰宝:中医入手,想让大模型学一下《本草纲目》,看下有没有什么火花出来。
大模型
换脸
AI换脸:FaceFusion和Roop在线版修复,支持手机,平板,低配电脑!
然后稍
微
讲解一下使用方法。
FaceFusion
Roop
AI换脸
Stable Diffusion
Stable Diffusion 常用LoRA模型推荐
LoRA属于
微
调模型,但是有很强烈的风格化倾向,因此有LoRA和没有LoRA,差别非常大。
文生图
SD
大模型
腾讯开源混元AI绘画大模型
从对比来看,基本超越了MJ v6,遥遥领先SDXL,和SD3基本打平,距离
微
软的DALL-E3有一点差距。
腾讯
混元
文生图
大模型
垂直领域大模型的思考
,而不是拆
分
成继续预训练+指令
微
调两个阶段,这样模型能很好回答金融领域的问题,也能保持对一般问题的作答(论文中的说法,还没有对比实验支撑)。
垂直领域
大模型
大模型
GitHub狂飙3万star的LLM公开资料 - 大模型入门教程
微
积
分
:许多机器学习算法涉及连续函数的优化,这需要理解导数、
积
分
、极限和级数。
LLM
大模型
GitHub
RAG
检索增强生成(RAG)有什么好的优化方案
我们
分
别展开讨论。
RAG
检索增强生成
LLM
现在LLM 的大小为什都设计成6/7B、13B和130B几个档次?
//www.zhihu.com/question/627258986/answer/3260798103 LLM现在一般都是基于Transormer结构,参数总和可以看作Embedding部
分
参数和
大模型
<
...
7
8
9
10
11
12
13
14
15
16
...
>
1
2
4
5
6
7
8
9
100