首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 2024!深入了解 大语言模型(LLM)微调方法(总结)
· Suno音乐新手指南(手把手完整版教程)
· 15个中文AI写作提示词帮你覆盖所有主流写作场景!!!
· 建议收藏:超详细ChatGPT(GPT 4.0)论文润色指南
· 基于大模型(LLM)的Agent 应用开发
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· Playground v2:超越SDXL的模型来了,优于SDXL 2.5倍!
· Midjourney AI绘画美女提示词分享一
· LLM微调经验&认知
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
Chinese-LLM开源中文大语言模型合集
依靠来自于 CogView 数据集的30M高质量中文
图
文对,与300M经过筛选的英文
图
文对进行预训练。
大模型
中文
开源
Giraffe:世界上第一个商业可用的32K长上下文开源LLM(基于Llama-2)
概述 我们进行了各种各样的实验,试
图
延长模型的上下文长度。
开源模型
企业
【上篇】深度解析AI大语言模型(LLM)在企业应用的关键技术与典型架构
因此可以很自然的想到把这样的智慧“大脑“与现有的企业应用展开协
作
,从而实现企业应用的智能化程度的跨越式升级。
大语言模型
大模型
大模型外挂知识库优化-大模型辅助向量召回
作
者在本文里提出了两种更主动的多次召回策略,让模型自己决定啥时候触发召回操
作
。
大模型
开源
开源大语言模型完整列表
VisualGLM-6B —— 多模态对话语言模型 VisualGLM-6B 是一个开源的,支持
图
像、中文和英文的多模态对话语言模型,语言模型基于 ChatGLM-6B,具有 62 亿参数;
图
像部分通过训练
开源模型
大语言模型
Agent
2024年值得关注的Agent框架
OpenAGI: 这是一个开源的人工通用智能(AGI)研究平台,结合了针对特定任务如情感分析或
图
像去模糊化的小型专家模型和基于任务反馈的强化学习(RLTF)以改进其输出。
Agent
框架
芯片拼接技术:英伟达新核弹,站在苹果的肩膀上
图
片来自:GTC 2024 一般来说,芯片算力提升的最常用方法是采用先进制程,用更高的密度在芯片里塞进更多晶体管。
芯片拼接
芯片拼接技术:英伟达新核弹,站在苹果的肩膀上!
图
片来自:GTC 2024 一般来说,芯片算力提升的最常用方法是采用先进制程,用更高的密度在芯片里塞进更多晶体管。
芯片拼接技术
Prompt
今天分享一个官方的高级的做数据分析的prompt提示词
而它强大的能力主要体现在数据分析这块,能够支持上传数据文档,如excel文件,或者是csv文件,它能够自己编写python代码来处理数据,而且还能自己去运行自己写出来的python代码,直接输出最直观的各种数据
图
表结果
prompt
提示词
工具
AI提示词工具,再也不用担心怎么想提示词!
本狗是没有钱买一个看它的提示词好不好,但是它的商品
图
片真的很好看==,对于设计的小伙伴来说可能帮助挺大。
AI提示词
Sora
通俗易懂地解释OpenAI Sora视频生成的特点有哪些?它与此前的Runway Gen2、Pika有什么区别?以及缺点是什么?
其中,视频清晰度,OpenAI Sora默认是1080P,而且其它平台大多数默认的清晰度也都是1080P以下,只是在经过upscale等操
作
之后可以达到更清晰的水平。
sora
视频生成
超越Claude-2.1和GPT-3.5-Turbo,Qwen1.5还藏了哪些黑科技?32K Tokens上下文支持只是开胃菜!
模型介绍与特点 在这里插入
图
片描述 为了深入了解Qwen1.5的实力,我们对其基础和聊天模型进行了全面评估。
Qwen1.5
开源模型
工具
Prompt提示优化工具
Prompthero 根据
图
片查询prompt,可以文字检索,界面设计的很不错。
prompt
提示词
大规模训练系列之技术挑战
类似的,扩大数据规模也能带来精度提升,如使用 ILSVRC-2012 (128 万张
图
片,1000 个类别)和 JFT-300M(3 亿张
图
片,18291 个类别)两个数据集来训练 ResNet50,精度分别为
开源模型
微软
微软打破Decoder-Only架构!大幅降低GPU内存需求,网友:把Llama3 70B弄20GB GPU上运行
一张
图
来看YOCO和标准Transformer的比较。
Decoder-Decoder
YOCO
架构
<
...
60
61
62
63
64
65
66
67
68
69
...
>
1
2
4
5
6
7
8
9
100