首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 最强国产开源多模态大模型MiniCPM-V:可识别图片、视频,还可在端侧部署
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
· 【Stable Diffusion操作升级】Stable Diffusion 常用模型下载与说明
· 包阅AI-免费AI阅读翻译神器!
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· 大模型评测新思路:弱智吧精华问题大全
· 精通结构化提示词:如何精确操控指令的作用域与优先级
· 小白设计师福音:Stable Diffusion 16款插件测评,好用不?推荐吗?
· LangChain手册(Python版)11模块:提示模板
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
LLM
LLM
微
调经验&认知
换句话说,指令
微
调可以教他”用中文写文章“,但不会教他“写文章”本身。
LLM
大模型
【AI代理】多代理模式之多任务分配&
信
息传递
昨天探索了多任务模式,让系统根据用户的输入
信
息自动找到对应的代理进行处理。
多任务模式
分配
传递
大模型
总结!大模型
微
调(Tuning)的常见方法
除了
微
调ChatGPT之外,还有许多其他预训练模型可以进行
微
调。
微调
大模型
工具
OCRmyPDF—可智能识别PDF文本和图片
信
息的工具
nbsp; 9、output_searchable.pdf # 生成经过验证的PDF输出 查看发布说明[1]以获取最新更改的详细
信
息
OCRmyPDF
工具
AI探索-我怎么使用Kimi Chat的
请有条理地组织以上
信
息,确保涵盖每一个点。
KimiChat
写作
OCR
完全指南——使用python提取PDF中的文本
信
息(包括表格和图片OCR)
有许多类型的文档共享这种非结构化
信
息,从网络文章、博客文章到手写
信
件和图表。
大语言模型
python
LLM
LLM
微
调神器Lamini,疯狂获星1.9k,免费可用!!
LLM(大规模语言模型)的
微
调不再困难!!
大模型
开源
省钱!
微
软开源框架LLMLingua + LlamaIndex实现提示词压缩
LLMLingua是
微
软发布的一款开源框架,旨在帮助开发者实现提示词压缩,从而在诸多应用场景中,在尽可能保留有意义的
信
息时,减少token开销,降低成本。
LLMLingua
LlamaIndex
开源框架
大模型
百川智能RAG方案总结:搜索出生的百川智能大模型RAG
爬
坑之路
今天对百川的RAG方法进行解读,百川智能具有深厚的搜索背景,来看看他们是怎么
爬
RAG的坑的吧~ 总的来说,百川通过长上下文模型(192k)+搜索增强结合的方法来解决知识更新,降低模型幻觉的问题,使得其在
RAG
大模型
开源
微
软最强全自动数据可视化工具!现已开源
8.14,
微
软开源了之前已经发布的全自动数据可视化工具 LIDA。
大模型
伦敦出租车司机的遭遇,暗示了程序员的未来
微
软的研究人员做了一个研究,看看人工智能编程助手Copilot对程序员的影响有多大。
人工智能
伦理
ChatGLM
60分钟吃掉ChatGLM2-6b
微
调范例~
干货预警:这可能是你能够找到的最容易懂的,最完整的,适用于各种NLP任务的开源LLM的finetune教程~ ChatGLM2-6b是清华开源的小尺寸LLM,只需要一块普通的显卡(32G较稳妥)即可推理和
微
调
开源模型
大模型
大模型
微
调方法总结
从这可以看出要全参数
微
调大语言模型,小家小户是不可能的。
开源模型
Baichuan-13B 保姆级
微
调范例
本范例
微
调的模型是Baichuan-13B-Chat,我们使用非常简单的,外卖评论数据集来实施
微
调,对一段外卖评论区分是好评还是差评。
开源模型
LLM
2024!深入了解 大语言模型(LLM)
微
调方法(总结)
由于它不触及原始LLM,模型不会忘记之前学到的
信
息」。
大模型
微调
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100