首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 2万字大模型调研:横向对比文心一言、百川、Minimax、通义千问、讯飞星火、ChatGPT
· OpenAI Assistants API 使用指南
· 掌握 Midjourney 提示词技巧成为 25 个流派的摄影大师
· EduChat:教育行业垂直领域大模型
· AnimateDiff:一篇文章教你学会用Stable Diffusion制作GIF动图
· 谁杀死了我们的技术教程?网络技术教程越来越少?
· ComfyUI安装及生成第一张图
· SD入门教程二:文生图基础用法(提示词)
· Stable Diffusion 30种采样器全解
· 从零开始:构建你的首个ComfyUI工作流
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
ChatGLM
更快更好的chatglm3来了
在
语
义、数学、推理、代码、知
识
等不同角度的数据集上测评显示,ChatGLM3-6B-Base 具有在 10B 以下的基础模型中最强的性能。
开源模型
ChatGLM
大模型
聊天大模型的输出速度应该是多少?单张显卡最多可以支持多少个人同时聊天?来自贾扬清最新的讨论~
而成年人的平均阅读速度在每分钟200-300个单词之间,不过不同的人差
别
很大,下图展示了一些研究结论: 可以看到,根据相关的研究,高中生的阅读速度是每分钟300个单词左右,而成年人在每分钟
大模型
Prompt
超级转化!5个让销售数字飙升的顶级 Prompts!
产品意
识
推广(我们有产品) 如何让受众了解我们的产品?
Prompt
提示
人工智能
如何用人工智能协助我提高写代码的效率
你可以把代码发给AI,让AI帮你解释,帮你注释,帮你优化,帮你改写…… 实现代码 请用某某
语
言帮我写出某某功能的代码,要求…… 解释代码 以下代码是什么意思,请帮我解释 注释代码
人工智能
编程
大模型
大模型微调应用实践,没那么简单,看看曾经踩过的坑
分
别
对比stage 2,3进行验证,在GPU显存够的情况下,最终使用stage 2。
大模型
心理
Asimov的预言与《Reflexion》的Prompt启示:机器人心理学家的新纪元
论文提出了一个名为"Reflexion"的框架,该框架旨在增强
语
言代理的能力,不是通过更新权重,而是通过
语
言反馈。
大模型
说真的,学会用SD做电商图,你才是真的入了门
具体而言,你会看到这样的过程: 一个随手拍摄的咖啡杯 如何变成这样 这样 或
者
是这样 制作全流程都在这篇文章里,跟着做,你也能学会。
文生图
SD
电商
ChatGPT
实战:如何用AI Agent实现ChatGPT流程化写作,产能翻倍
你甚至可以给Agent起一个名字、分配一个职称或
者
赋予一些个性特征。
Agent
写作
什么是极限、导数、微分与积分(通俗易懂)
这个简单的动作,实际上就蕴含了微积分的精髓:速度的变化、时间的流逝,以及两
者
之间复杂的相互作用。
数学
微积分
科学
RAG
RAT = CoT + RAG
大规模
语
言模型(LLM)处于此类研究的最前沿,旨在模拟人类对概念的理解和表达。
RAT
协同思维链
检索增强生成
SDXL
它来了!SDXL + ControlNet 终于强强联合!
就好比当我们想要一张“鲲鲲山水图”的时候,会发现很难通过
语
言来描述这样的景象。
SDXL
ChatGPT
15种ChatGPT高频用法
语
言学习资源推荐、学习计划制定、学习方法指导、练习活动建议、解答疑问、鼓励和激励、跟踪进度、文化了解 4.
大模型
效率
深度解读|做出海必看的一份产品报告
那第一年 OpenView 只有一个涉及 150 家软件公司的小数据集,而“产品导向增长”( PLG ) 这个词还不是一个被广泛使用的术
语
,更不用说是上市的 SaaS 巨头描述他们策略的方式了。
工作
SQL
RLHF 在 Text2SQL 领域中的探索
,同时提问的自然
语
言问题比较 easy。
Text2SQL
RLHF
RAG
改进召回(Retrieval)和引入重排(Reranking)提升RAG架构下的LLM应用效果
这个问题很大程度上是因为召回相关性不够或
者
是召回数量太少导致的,从扩大召回这个角度思考,借鉴推荐系统做法,引入粗排或重排的步骤来改进效果。
大模型
<
...
68
69
70
71
72
73
74
75
76
77
...
>
1
2
4
5
6
7
8
9
100