首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 人工智能对话prompt:用聪明的方式解决各种难题
· CPM-BEE面壁智能
· 火山写作
· 小心你的GPTs 防守篇 - 自带六神装的高防GPTs
· 发现一个好东西,一键本地运行各种大模型!包括最新的Qwen1.5
· 硬核解读Stable Diffusion(系列一)
· 中文通用大模型最全汇总
· Learn Prompting-基础篇
· Markdown 介绍及使用教程
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
开源大模型王座易主!谷歌Gemma杀入场,笔记本可跑,可商用
不同的尺寸满足不同的计算限
制
、应用程序和开发人员要求。
开源模型
Gemma
大模型
MindChat心理大模型
数据词云 目前MindChat的开源模型采用了经过人工清洗的约20万条的高质量多轮心理对话数据进行训练, 涵盖工作、家庭、学习、生活、社交、安全等多个方面 因数据权限限
制
, 我们目前仅开源了极少量的数据案例
心理大模型
大模型
重磅来袭!Llama中文社区开源预训练中文版Atom-7B大模型
FlashAttention-2是一种高效注意力机
制
的实现方式之一,相较于传统的注意力技术(Attention),它拥有更快的速度以及更加优化的内存占用率。
大模型
提示词
分享一个结构化AI提示词模版
写作模板 情境(S): 需要创作[文章类型] 目的(P): [写作目标] 受众(A): [目标读者群体] 要求(R): - 字数限
制
: [具体字数
提示词
模板
强!推荐一款自动化神器Autolt:不再重复工作!
它利用模拟键盘按键,鼠标移动和窗口/
控
件的组合来实现各类自动化任务,包括自动化软件安装、登录、数据自动录入、界面自动化测试、数据抓取等,以及可以和其他自动化工具结合起来使用,比如,我们在使用Selenium
Autolt
自动化
Agent
AI Agent新对决:LangGraph与AutoGen的技术角力
这些代理具有定
制
性和对话性,并可以在利用LLM、人类输入和工具的各种模式中运作。
LangGraph
AutoGen
对决
RAG
一文看懂RAG:大语言模型落地应用的未来
随后chatGPT的出现标志着LLMs领域的重要时刻,社区的重点转向利用LLMs的能力来实现更高的可
控
性和解决不断变化的需求。
rag
检索增强
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
GLU通过门
控
机
制
对输出进行把
控
,像Attention一样可看作是对重要特征的选择。
大模型
神奇的 OuteTTS - 0.1 - 350M:用几秒钟音频克隆声音的黑科技!
CTC 强
制
对齐(CTC forced alignment) 通过 CTC 强
制
对齐技术,创建精确的单词到音频标记的映射。
OuteTTS-0.1-350M
音频
取代 Vue 和 React?25 年码龄程序员不满 Web 现状创建新框架 Nue JS,能将代码量减少 10 倍!
而其最大的亮点在于,它能将用户界面代码量
控
制
在其他同类方案的十分之一。
开源模型
人工智能
准备迎接超级人工智能系统,OpenAI宣布RLHF即将终结!超级对齐技术将接任RLHF,保证超级人工智能系统遵循人类的意志
但未来面临的问题是人类要监督
控
制
比人类更强的AI系统。
OpenAI
人工智能
RAG
无限长的上下文,也干不掉的RAG
主要发现 多文档问答任务 研究者们通过
控
制
输入上下文的长度和相关信息在上下文中的位置,发现模型在多文档问答任务中的表现会随着相关信息位置的变化而显著变化。
RAG
大模型
Prompt
30条 SEO Prompt
the following set of Questions and Answers: {list of questions and answers} Schema标记提示:为以下一组问题和答案
制
作
SEO
提示词
Stable Diffusion
Stable Diffusion超清放大及修复细节操作
):485128632 第二步:发送到图生图(图片大小3MB左右) 保持正负关键词不变,迭代步数可以调整高一点,保证更多的细节,采样建议DPM++ 2M SDE Karras,重绘
控
制
在
Stable
Diffusion
文生图
ChatGLM
【万字长文】LLaMA, ChatGLM, BLOOM的参数高效微调实践
模型结构上,ChatGLM-6B采用了prefix decoder-only的transformer模型框架,在输入上采用双向的注意力机
制
,在输出上采用单向注意力机
制
。
大模型
微调
训练
<
...
18
19
20
21
22
23
24
25
26
27
...
>
1
2
4
5
6
7
8
9
100