首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 理解 o3 及其技术分析
· 字节,悄咪咪做了个 Liblib
· 腾讯悄悄开源混元版「Sora」,这就是开源领域的No.1。
· NEFTune:在Embedding中加入噪⾳提⾼指令微调效果!
· 【TTS语音克隆开源最强王者】5款爆火开源模型(Fish、F5、GPT、CosyVoice、MaskGCT)效果对比,等你来评!
· 高效选择:Ollama与LM Studio深度对比
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· 搞了一个Dify开源知识库
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 分享一个结构化AI提示词模版
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
微调
四种微调技术详解:SFT 监督微调、LoRA 微调、P-tuning v2、Freeze 监督微调方法
例如,在
文
本
分
类任务中,SFT可以利用模型的预测结果为
文
本
分
配类别标签。
大模型
开源
开源打败闭源?Meta即将推出开源代码生成平台Code Llama,剑指OpenAI Codex
Code Llama 功能剖
析
那么,Code Llama 到底有哪些功能值得开发者关注?
开源模型
如何通过AI变现,举个详细的例子?
比如客户请一个高级
文
案,一年薪酬+各种福利待遇,最少30w打底,而一套
文
案指令,老板自己就可以把
文
案的活儿干了。
生成式AI
开源
6个最佳开源TTS引擎
TTS引擎用于实现
文
本到语音的转换。
TTS引擎
开源模型
Midjourney
[Midjourney]人物镜头拍摄视角大全
一文打尽Midjourney人物镜头拍摄视角的提示词,全面掌握视角构图,建议收藏
视图
视角
构图
数据库
windows安装向量数据库milvus
本
文
介绍windows下安装milvus的方法。
向量库
docker
大模型
Github上Star数最多的大模型应用基础服务:Dify 深度解读
文
件加载 Dify 的
文
件加载都是在 api/core/rag/extractor/extract_processor.py 中实现的,主要的
文
件解
析
是基于 unstructured
Dify
大模型
知识库
ChatGPT
用ChatGPT辅助学习,成为超级学霸
换言之,无
论
教师的讲授多么出色,若你的学习体系陈旧,你的学习效率也将低得令人咋舌,你甚至可能不知道如何去学习——这是一个极为令人忧虑的现象。
教育
AI
学习
微调
Qwen7b微调保姆级教程
我们构造了一个修改大模型自我认知的3轮对话的玩具数据集,使用QLoRA算法,只需要5
分
钟的训练时间,就可以完成微调,并成功修改了LLM模型的自我认知(以Qwen7b-Chat为例)。
Qwen7b
大模型
大模型
最透彻的大模型PPO原理和源码解读
虽然吭吭哧哧地入门了,但是这个过程实在痛苦,最主要的原因是:理
论
的部
分
太多,直观的解释太少。
PPO
大模型
源码解读
金融
MCI-GRU:在真实金融交易中验证有效的股票价格预测模型
2.2 图神经网络(GNN) 图神经网络(GNN)是一类能够处理图结构数据的神经网络模型,广泛应用于社交网络
分
析
、生物信息学和金融市场预测等领域。
MCI-GRU
股票
大模型
大模型
如何构建基于大模型的App
不
论
是AI 原生还是AI 赋能的应用,都会面临如何构建基于大模型APP 的问题,基于大模型的App 在系统架构和开发方式上有什么不同呢?
构建
大模型App
企业
为什么说数智化可以帮助中小企业降本增效 ?
黄某为尽快落实
文
件精神,再次通过“RTX腾讯通”软件将
文
件部
分
内容发送该所多名有关人员。
大模型
LLM
从思维链(CoT),到思维树(ToT),再到思维图(GoT):用LLMs解决复杂问题!
引言 为进一步提升大型语言模型(LLM)解决复杂问题的能力,今天给大家
分
享的这篇
文
章,作者提出了思维图(GoT),其性能超过了思维链(CoT)、思维树(ToT)。
大模型
ChatGLM
从0到1基于ChatGLM-6B使用LoRA进行参数高效微调
具备的一些能力 自我认知、提纲写作、
文
案写作、邮件写作助手、信息抽取、角色扮演、评
论
比较、旅游向导等 局限性 由于 ChatGLM-6B 的小规模,其能力仍然有许多局限性。
大模型
<
...
62
63
64
65
66
67
68
69
70
71
...
>
1
2
4
5
6
7
8
9
100