首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· AI换脸工具:facefusion使用心得
· MCP服务介绍及应用场景报告-来自Manus
· 我用AI写小说:「国学篇」如何将国学插入小说中
· 9.4k Star!MemGPT:伯克利大学最新开源、将LLM作为操作系统、无限上下文记忆、服务化部署自定义Agent
· 使用自己的数据训练清华ChatGLM2-6B 模型
· 大模型中的Top-k、Top-p、Temperature详细含义及解释
· 复旦开源中文医疗大模型,基于百川微调,模型和数据集都公开
· ComfyUI官方使用手册【官网直译+关键补充】
· [Stable Diffusion]SD安装、常用模型(checkpoint、embedding、LORA)、提示词具、常用插件
· YOO简历
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
教程
0基础!动手部署Qwen1.5-MoE模型!能力如何?API接入fastgpt等任何应用!喂饭到嘴教程,附模型下载!
1.1 知识储备 问:
法
国的首都在哪里?
Qwen1.5-MoE
大模型
下载
大模型
使用大模型自动回复小红书/抖音/快手评论:通过RAG 优化LLMs实现
检索增强生成, or 或RAG, 是这样一种方
法
。
RAG
大模型
自动回复
开源
昆仑万维携Skywork-13B打造AI新纪元:600GB中文数据集全球开源
引言 在人工智能的浪潮中,数据和
算
力是推动技术发展的两大驱动力。
Skywork
开源
数据
教育
解读:一个数学在线教育网站如何做到一千万月访问量
今天继续分享个方
法
,那就是随便乱点,从一个网站发现一些关键词,从一个关键词发现一批网站,不断点下去,就能够发现一些不错的网站。
访问量
一文带你认识ELMo
传统的词嵌入会对两个句子中的词“read”生成同样的向量,所以这些架构无
法
区别多义词,它们无
法
识别词的上下文。
embedding
LLM
收藏!万字长文聊聊LLM Agents的现状,问题与未来
检索不一定就是只
算
语义相似度,也可以使用其他的一些检索函数。
LLM
Agents
大模型
百川智能RAG方案总结:搜索出生的百川智能大模型RAG爬坑之路
今天对百川的RAG方
法
进行解读,百川智能具有深厚的搜索背景,来看看他们是怎么爬RAG的坑的吧~ 总的来说,百川通过长上下文模型(192k)+搜索增强结合的方
法
来解决知识更新,降低模型幻觉的问题,使得其在
RAG
大模型
赚钱
你还在为钱发愁?2023年十大赚钱GPT Prompts高级指南!(国际版)
在这个时代,每个人都在寻找更快、更简单的赚钱方
法
。
prompt
提示词
推荐一个自动生成复杂提示词的模版:思考链(CoT)如何通过分步推理提升AI任务准确性 | 示例详解
这种方
法
使得模型能够逐步构建解决方案,从而减少错误并提高准确性。
思考链
提示词
大模型
无一幸免!OpenAI最强竞对Anthropic:“长上下文”让大模型更不安全
其中一个让大模型能力增强的方
法
之一,便是增加大模型的上下文窗口。
Anthropic
大语言模型
探秘制作艺术二维码的新姿势
在之前的文章《AI制作艺术二维码-文生图》中,我介绍了一种直接通过提示词生成高逼格二维码的方
法
,但是通过提示词我们无
法
很好的控制生成图片的样式,特别是有些同学想要将自己的Logo或者头像附加到二维码中,
图像文字
视频
超越Animate Anyone! 南加大&字节提出MagicPose,不需任何微调就可生成逼真的人类视频
南加州大学&字节提出MagicPose,一种新颖有效的方
法
,提供逼真的人类视频生成,实现生动的运动和面部表情传输,以及不需要任何微调的一致的野外零镜头生成。
MagicPose
视频
AI制作艺术二维码 - 文生图
这里使用的AI绘图工具是Stable Diffusion,没有的同学需要去部署一个,计
算
平台国内建议使用AutoDL,国外可以白嫖Kaggle的
算
力,这两个我都用过。
文生图
大语言模型的拐杖——RLHF基于人类反馈的强化学习
强化学习:然后使用Proximal Policy Optimization (PPO)或类似的
算
法
对模型进行微调,这些
算
法
将人类生成的奖励信号纳入其中。
大模型
训练
国产AI,逃过一劫
进入2023年下半年,许多大模型开始从技术走向商业化,各家纷纷抢占数据、
算
力、场景、应用高地,以争夺大模型市场话语权。
ChatGPT
大模型
<
...
8
9
10
11
12
13
14
15
16
17
...
>
1
2
4
5
6
7
8
9
100