首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· Stable Diffusion 30分钟打造AI 写真照片生成器|海马体照相馆这次真的要木得了
· 七问大模型幻觉|LLM Hallucination
· 会“追问”的Agent,大模型知识库另类实践
· ChatGLM智谱清言
· Stable Diffusion API
· ChatGPT写论文最强指令
· 新手向,Stable Diffusion API 接口,在本地调用
· 10大Midjourney描述词网站,让你Ai创作随心所欲!
· 自从prompt用了示例演示,GPT的输出稳定性达90%
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
数据分析思路系列-如何建立指标体系
为了让大家更好理解,我们来举一个例
子
。
数据分析
指标体系
开源
开源语音大语言模型来了!阿里基于Qwen-Chat提出Qwen-Audio!
• 最后,我们提供输出说明,以进一步明确不同
子
任务的任务和所需格式,然后文本输出开始。
大模型
语音
大模型
中文LLaMA-2基座模型和Alpaca-2指令精调大模型-中文LLaMA-2以及Alpaca-2系列模型
生成回复具有随机性,受解码超参、随机种
子
等因素影响,因此相关评测并非绝对严谨,结果仅供晾晒参考,欢迎自行体验。
大模型
Prompt
如何看待大型语言模型的Prompt
两者都涉及将标记(单词或
子
词)嵌入到向量空间中。
prompt
大语言模型
人工智能
人工智能的应用范式呼之欲出
智能体这种思路,有一个问题就绕不过去,如何在Agent之间共享记忆和信息,以便多个Agent能够协同完成一个复杂的任务,显然在大语言模型之外外挂一个存储空间,用于缓存:任务的总目标、任务分解的流程图、各层各步
子
任务的上下文
大模型
开源
玩一玩阿里通义千问开源版,Win11 RTX3060本地安装记录
0.89 8.5% 我也不太懂,没研究过这个基准测试,反正就是看起来很厉害的样
子
。
大模型
大模型
国内AI大模型已近80个,哪个最有前途?
4 月份业界就有传闻说字节想花上百万美金从 OpenAI 挖人,结果面试官被 OpenAI 反挖走了,成了段
子
。
大模型
大模型
AI大模型LLM可以帮助企业做什么?
这个问题一下
子
让我陷入了沉思。
大模型
2024,智谱如何更快?
这依然是一个有很高门槛的事情,训练模型需要大量钱、需要写过模型训练代码的人、需要坚定的技术路线和公司战略层面坚持不懈的投入,不是谁喊上一嗓
子
,中国大模型就能跟GPT-4同台竞技。
GPT-4
大语言模型
Transformer
Transformer速查宝典:模型、架构、训练方法的论文都在这里了
使用多查询注意力,并在推理时生成数千个样本,然后选择一个解决方案
子
集进行提交。
Transformer
OpenAI
Prompt逆向工程:轻松复刻OpenAI“神级”提示词
04总结 通过上面这些例
子
,给大家详细介绍了解剖式逆向prompt的主要流程: 1.提取高效的提示词语句。
大模型
Github
GitHub上的RPA小工具,可以将重复、繁琐的任务自动化
例如,可以编写脚本来自动填写表格、处理电
子
邮件、进行数据输入、生成报告等。
RPA
自动化
语音
解读wav2lip:探究语音驱动唇部动作的技术原理!
Fig.1 wav2lip architecture 2.1 数据集处理 本文使用的LRS2数据集,来自BBC的唇语视频,包含4万多个口语句
子
,它的训练集、验证集和测试集是根据广播日期进行划分。
wav2lip
语音
Sora
微软研究团队:Sora核心技术及未来机会研究报告-中英对照版
另一个例
子
是 Stable Diffusion,这是一个适应性强、使用方便的多功能文本到图像 AI 模型。
sora
论文
大模型
通俗解读大模型微调(Fine Tuning)
论文中举的例
子
,65B的LLaMA 的微调要780GB的GPU内存;而用了QLoRA之后,只需要48GB。
大模型
微调
<
...
46
47
48
49
50
51
52
53
54
55
>
1
2
4
5
6
7
8
9
100