首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 写不好Prompt?可以先写个粗糙版本,然后让GPT帮助优化。
· 强大高效的微信爬虫Wechat_Articles_Spider:快速获取公众号文章的利器
· 手把手!做Llama3的MoE专家混合模型!底层原理怎样的?做自己的MoE模型?需要多少算力?
· SD入门教程六:ControlNet基础入门
· 四种微调技术详解:SFT 监督微调、LoRA 微调、P-tuning v2、Freeze 监督微调方法
· 造梦师手记:C站首推的动漫模型竟然是十八禁?
· 提示词框架:BROKE
· AI必备Prompt技巧《提问的艺术——让AI导出高质量答案》
· 自从prompt用了示例演示,GPT的输出稳定性达90%
· 在SD中一键换脸!!!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
OpenAI
Prompt逆向工程:轻松复刻OpenAI“神级”提示词
之前的文章给
大
家介绍了三种逆向prompt的方法,分别是: 1.
大模型
如何修复GPT幻觉、及评估数据集的挑战
生成
大
型语言模型 (LLM) 可以对各种用户提示生成高度流畅的响应。
大模型
微调
四种微调技术详解:SFT 监督微调、LoRA 微调、P-tuning v2、Freeze 监督微调方法
当谈到人工智能
大
语言模型的微调技术时,我们进入了一个令人兴奋的领域。
大模型
知识树:一个方法,教你构建「终身知识体系」
后来
大
一创业,因为创业需要
大
量的知识储备,我开始疯狂式的学习,看各种认知、商业类书籍,看各种类似混沌
大
学的课程,听各种类似得到、樊登读书会等音频。
大模型
RAG
改进召回(Retrieval)和引入重排(Reranking)提升RAG架构下的LLM应用效果
,但实际落地过程中有
大
量的实际问题需要改进优化。
大模型
LLM
谈谈LLM在推荐域的渗透,探索推荐新范式
utm_content=g_1000376022 作者|葬青 前言 最近
大
模型真的很火,从个人到公司,各行各业都在学习
大
模型、总结
大
模型和尝试应用
大
模型。
大模型
ChatGPT
你是否发现ChatGPT甚至不能按字数要求回复问题?有人做了评测并讨论了可能的原因
有人做了评测并讨论了可能的原因 最近在群里和朋友圈看
大
家都提到让LLM写固定字数的回复时模型几乎都失效了,在网上看到这篇论文的时候就想怎么这么巧就有人针对这个事情发了论文,合着好像就是群友发的。
大模型
控制
打磨 8 个月、功能全面升级,Milvus 2.3.0 文字发布会现在开始!
Milvus 社区的各位伙伴:
大
家晚上好!
大语言模型
ChatGPT
什么是ChatGPT?
总之,ChatGPT是一种非常强
大
的自然语言处理模型,它具有广泛的应用前景。
ChatGPT
OpenAI
大模型
ChatGPT
5 种策略控制 ChatGPT 的输出长度
自从人类有了
AI
之后,文本创作的效率
大
幅上升,带来的问题就是,我们不得不花更多时间去消化信息。
写作
大模型聊天
ChatGPT
百度
百度智能云的Prompt模板
Prompt也叫提示词,简单的理解成它是给
大
模型的指令。
大模型
prompt
Prompt
营销Prompt:三分钟生成百篇营销文案,领先99%的同行!
营销,可能是
大
多数企业的命脉,进入
AI
时代,也很快就卷出了新花样。
写作
营销
prompt
人工智能
准备迎接超级人工智能系统,OpenAI宣布RLHF即将终结!超级对齐技术将接任RLHF,保证超级人工智能系统遵循人类的意志
总的来说,RLHF是当前
大
语言模型质量提升的一个必备步骤。
OpenAI
人工智能
ChatGPT
ChatGPT「火」烧到游戏行业,有人用其设计关卡、撰写文案、激活NPC,这会给游戏行业带来什么改变?
因
大
幅提升了认知智能水平,将
AI
的理解和生成能力拔到新高度,ChatGPT成为了“当红炸子鸡”。
大模型
chatGPT
微调
Qwen7b微调保姆级教程
前方干货预警:这可能是你能够找到的,最容易理解,最容易跑通的,适用于各种开源LLM模型的,同时支持多轮和单轮对话数据集的
大
模型高效微调范例。
Qwen7b
大模型
<
...
50
51
52
53
54
55
56
57
58
59
...
>
1
2
4
5
6
7
8
9
100