首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 第一性原理以及第一性原理是怎么帮马斯克成为首富的
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 从第一性原理看大模型Agent技术
· ComfyUI官方使用手册【官网直译+关键补充】
· 芯片拼接技术:英伟达新核弹,站在苹果的肩膀上
· AI声音克隆 | 最全最简教程(权威版)
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· 生成式AI与大语言模型的区别
· 自己电脑上跑大语言模型(LLM)要多少内存?
· 深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
LLM
一文探秘LLM应用开发-Prompt(相关概念)
)Prompt engineering(如何写好一个Prompt及相关Prompt调试工具)3)基于Prompt催生的一些新的编程范式 认识Prompt Prompt,中文翻译为提示(词),在维基
百
科中
prompt
大模型
大模型
中国电信开源星辰AI大模型:央企中首个完成LLM研发和开源的选手诞生
早在去年五月中旬,经过数十版模型训练与优化,中国电信就完成了
百
亿参数星辰AI大模型稳定版本的训练。
开源大模型
电信
开源
开源打败闭源?Meta即将推出开源代码生成平台Code Llama,剑指OpenAI Codex
可定制的代码模板:编码工作中不存在
百
试
百
灵的“银弹”,Code Llama 也深知这一点。
开源模型
大模型
大模型时代,数据为王,在哪里寻找开源数据集?
链接:https://hyper.ai/datasets 15、baai开源数据集 链接:https://data.baai.ac.cn/data 16、
百
度飞桨开源数据集
开源数据
训练
前半年,我看到的有趣的 AI 产品
12、盘盘单词(小程序)这款产品是
百
度网盘团队出品的,让人眼前一亮。
AI工具
AGI
Yann LeCun杨立昆最新观点:AGI不存在
就好像你说,你能在美国西海岸的某个地方有一个商业实体来制作维基
百
科吗?
AGI
大语言模型
观点
实测:本地跑llama3:70B需要什么配置
首先使用ollama下载70b模型,不知道ollama的请自行
百
度,这里有个小细节_-->>ollama默认缓存目录在C盘当前用户目录下,几个大模型就能爆了你的C盘,所以务必修改环境变量OLLAMA_MODELS
llama
GPU内存
依赖倒置:以数字和AI的思维模式思考
办公场所从语音到图像
百
分
百
数字化。
写文章
OpenAI
被低估的面壁:打造出不输 OpenAI 的 Scaling Law 曲线
在已公开披露的天使轮消息中,面壁智能只拿了知乎数千万元,但在 2023 年,面壁不仅将团队从十人规模拓展到
百
人规模,而且还在 8 月发布了稠密(区分于稀疏)的千亿参数大模型。
Grok-1
开源模型
RAG
RAG——使用检索增强生成构建特定行业的大型语言模型
向量搜索有助于选择什么是相关的上下文,当你有大量的数据,包括数
百
(或更多)的文档。
大模型
知识树:一个方法,教你构建「终身知识体系」
这要是在几
百
前倒没什么,但如今,传统式的学习方式已经行不通了。
大模型
人工智能
2023年人工智能行业总结
三月份
百
度发布了文心一言,但当时仅能通过内测申请来提供服务。
人工智能
AGI
思考总结
【进阶】-文生图术语解释
例如,您可以采用以下两种方式之一来表示英文句子中的单词: 表示成包含
百
万个元素(高维度)的稀疏向量,其中所有元素都是整数。
文生图
白话Embedding:普通人都能懂的科普文
每个列表对应于二维空间中的一个点: 如果我们有三个数字,比如$(3,2,5)$和$(4,5,2)$,那么这对应于三维空间中的点: 重要的是,我们可以把它扩展到更多的维度:4,5,100,1000,甚至数
百
万或数十亿
Embedding
向量
大模型
比GPT-4快18倍,世界最快大模型Groq登场!每秒500 token破纪录,自研LPU是英伟达GPU 10倍
在不到一秒钟的时间里,生成几
百
词的、带有引用的事实性回答。
Groq
大模型
<
...
7
8
9
10
11
12
13
14
15
16
...
>
1
2
4
5
6
7
8
9
100