首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· SD入门教程七:ControlNet篇-Canny边缘检测预处理器
· AI开源 - LangChain UI 之 Flowise
· AI高手都在用的10个提示词prompt网站,建议收藏!
· 你要牢记的四个常用AI提示词框架:ICIO、CRISPE、BROKE、RASCEF,有助于获取更加稳定和高质量的内容
· 绝了!新华社、知网官方出品的写作神器,不要太爽!
· SD入门教程六:ControlNet基础入门
· 社区供稿|GPT-4 与国产模型,大!横!评!
· RLHF 在 Text2SQL 领域中的探索
· 全量免费的EMO模型上架通义APP,外媒称之为Sora之后最受期待的大模型之一
· 它来了!SDXL + ControlNet 终于强强联合!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Prompt
写不好Prompt?可以先写个粗糙版本,然后让GPT帮助优化。
此外,将ChatGPT
视
为一个真正的助手,可以极大地扩展其使用范围。
Prompt
GPT
开源
国内外开源大语言模型一览表
参考相关数据工作,
频
率和质量是数据处理环节重点考虑的两个维度。
大模型
开源
7.1k Star!RAGFlow:最新开源OCR+深度文档理解的RAG引擎、大海捞针测试、降低幻觉、服务化API集成进业务!
本质上,RAGFlow 包含以下端到端流程: 在处理文档时,RAGFlow 提供了多种选项:问答、简历、纸张、手册、表格、书籍、法律、一般文档等 智能文档处理的可
视
化和可解释性
OCR
RAG
开源
LLM
收藏!万字长文聊聊LLM Agents的现状,问题与未来
在此提供三个
视
角供大家参考:一是用户认识LLM Agents的方式,二是所有人都可以用来认识LLM Agents的方式,三是生产者(整个生产链条:研究人员、开发人员、产品经理、游戏策划等)认识LLM Agents
LLM
Agents
提示词
震撼!AI语言模型突破瓶颈,26个提示词原则引领GPT-4响应质量飙升57.7%!你的模型还在等什么?
· 原则1: 清晰定义任务目标 · 原则2: 包含所有必要信息 · 原则3: 明确期望的输出格式 · 原则20: 鼓励
视
觉艺术创作的描述性提示 示例 ·
语言模型
提示词
GPT-4
心理
Asimov的预言与《Reflexion》的Prompt启示:机器人心理学家的新纪元
这篇论文,就为我们提供了一个全新的
视
角。
大模型
阿里
淘宝模特全体注意!阿里AnyDoor AI换装神器出来了,年度最强AIGC重制绘图工具,重塑电商模特产业
期待不久的将来,它将以更精湛的技术,挑战商业级别出图质量,那时,“狠狠搞钱”的电商美工或许真的可以靠它大大减轻工作负担,而我们也将迎来一场
视
觉革命!
AnyDoor
换装
文生图
StableDiffusion
StableDiffusion模型推荐系列(功能型)
例如,在海报设计中,模型可以帮助设计师快速构建出多种布局和
视
觉元素的组合,从而探索不同的设计方向。
StableDiffusion
文生图
数字人
AI数字人:重构人货场的新力量
它们利用语音识别、自然语言处理、计算机
视
觉等技术,实现与人类的自然交互,成为人类与计算机之间沟通的桥梁。
数字人
AI
商业
开源
新测试基准发布,最强开源Llama 3尴尬了
从层次结构可
视
化的前64个聚类中也可以看出,大模型竞技场用户的提问质量和多样性确实是高。
Llama
3
大模型
开源
Agent
2024年值得关注的Agent框架
它能够将用户请求转化为可执行代码,并将用户定义的插件
视
为可调用的函数。
Agent
框架
大模型
推荐智能体:利用大模型进行交互式推荐
为了集成
视
觉功能,Visual ChatGPT (Wu et al. 2023)和HuggingGPT (Shen et al. 2023)结合了
视
觉模型作为工具,使LLM能够生成和处理图像。
大语言模型
推荐
混合专家模型 (MoE) 详解
之所以是 47B 而不是 8 x 7B = 56B,是因为在 MoE 模型中,只有 FFN 层被
视
为独立的专家,而模型的其他参数是共享的。
MoE大模型
大模型
最透彻的大模型PPO原理和源码解读
这是因为,当我们在前文讨论总收益(即时 + 未来)时,我们是站在上帝
视
角的,也就是这个就是客观存在的、真正的总收益。
PPO
大模型
源码解读
大模型
总结!大模型微调(Tuning)的常见方法
v1到v2的可
视
化:蓝色部分为参数冻结,橙色部分为可训练部分,可以看到右侧的p-tuning v2中,将continuous prompt加在序列前端,并且每一层都加入可训练的prompts。
微调
大模型
<
...
37
38
39
40
41
42
43
44
45
46
...
>
1
2
4
5
6
7
8
9
100