首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 硬核解读Stable Diffusion(系列一)
· AI换脸工具:facefusion使用心得
· 100个最强Ai实用工具精讲 - 拒绝焦虑拥抱Ai
· 实测:本地跑llama3:70B需要什么配置
· RVC和SVC声音模型难找?推荐这个网站
· AI自动生成视频全流程干货
· Suno音乐新手指南(手把手完整版教程)
· 中文LLaMA-2基座模型和Alpaca-2指令精调大模型-中文LLaMA-2以及Alpaca-2系列模型
· 大模型高效微调:🤗 PEFT 使用案例
· 盘点来自工业界的GPU共享方案
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
人工智能
AI产品经理视角:如何构建人工智能产品
我们将从
商
业角度开始——市场
机
会和价值——然后深入研究用户体验和技术。
大模型
产品经理
AI备案实战指引
为什么要备案 和医生执业执照或律师从业资格证类似,从事AI相关业务,必须拿到资质:未取得人工智能应用备案资格者,是不得向全社会开放,亦不得收费或进行
商
业化的。
备案
人工智能
Gartner:2024年人工智能渗透的十大战略技术趋势
作为一项基础功能,应用程序中的智能包括各种基于 AI 的服务,例如
机
器学习、向量存储和数据连接。
Gartner
人工智能
开源
研究人员开源中文文本嵌入模型,填补中文向量文本检索领域的空白
这样,GPT 模型就不需要感知全部文本,而是有重点、有目的地只关心那些相关的部分,这和 Transformer 内部的 Attention
机
制原理相似,使得文本嵌入模型变成了 GPT 模型的记忆检索模块
GPT
大模型
比GPT-4快18倍,世界最快大模型Groq登场!每秒500 token破纪录,自研LPU是英伟达GPU 10倍
在前段时间的基准测试中,Groq LPU推理引擎上运行的Llama 2 70B直接刷榜,而且比顶级云提供
商
快18倍的LLM推理性能。
Groq
大模型
芯片拼接技术:英伟达新核弹,站在苹果的肩膀上
掩膜版生产需要Mask Writer(掩膜版写入
机
),精密程度堪比光刻
机
。
芯片拼接
芯片拼接技术:英伟达新核弹,站在苹果的肩膀上!
掩膜版生产需要Mask Writer(掩膜版写入
机
),精密程度堪比光刻
机
。
芯片拼接技术
大模型
解读 | SuperCLUE 2023年9月全面测评大模型四大能力
评分
机
制 SuperCLUE的评测分为"OPEN多轮开放问题"和"OPT三大能力客观题"两部分。
大模型
方法论
大模型
大模型:泛化即智能,压缩即一切!
如果你认同Scaling Law定律,你就应该相信通过大量不同的数据来追求长期的模型泛化能力比短期的通过巧妙的模型微调更重要,这个想法在
机
器学习先驱 Rich Sutton 《苦涩的教训》中也有所体现。
泛化
大模型
金融
MCI-GRU:在真实金融交易中验证有效的股票价格预测模型
首先,通过将GRU模型的重置门替换为注意力
机
制,增强了模型在选择和利用历史信息方面的灵活性。
MCI-GRU
股票
大模型
开源
从 GPT-4o 到 LiveKit:实时语音交互的开源实现
想象一下,这个智能量子计算
机
玩具不仅能回答问题,还能通过屏幕显示表情,让互动更加有趣。
GPT-4o
语音交互
开源
ModelScope(一站式开源的模型即服务共享平台)的简介、安装、使用方法之详细攻略
action=onAll Ø 开源数据集:社区会提供达摩院沉淀的电
商
领域数据集以及一些通用领域的数据集,结合业内一些经典数据集配合工具自动对外开放 Ø 实训框架
开源
SDXL
说真的,SDXL究竟藏着多少秘密,也许没人知道
这会不会是一个补充内容的
机
会?
文生图
开源
国内外开源大语言模型一览表
开源免费可
商
用:Baichuan-13B 不仅对学术研究完全开放,开发者也仅需邮件申请并获得官方
商
用许可后,即可以免费
商
用。
大模型
LLM
让AI记住你说的话、让AI给你生成几十万字的小说!StreamingLLM 让无限长token成为可能
StreamingLLM是由麻省理工学院(MIT)的研究团队提出的,它基于一个简单而有效的观察:在Transformer中,注意力
机
制(Attention)对于前面的token有着很强的偏好,即使它们并不是语义上很重要的
StreamingLLM
写作
<
...
16
17
18
19
20
21
22
23
24
25
...
>
1
2
4
5
6
7
8
9
100