首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· clone-voice:一键克隆声音,开源AI技术让声音创作更便捷、更个性化
· 盘点数据安全合规方向的热门证书【快来了解一下】
· Agent : 一文读懂LLM Agent架构,详解Profile,Memory,Planning,Action模块作用
· 硬核解读Stable Diffusion(系列一)
· RAG模型的主要痛点和解决方案
· 6个最佳开源TTS引擎
· 用so-vits-svc-4.1进行音色转换的极简教程!
· TreeMind
· TrOCR——基于transformer模型的OCR手写文字识别
· 《OpenAI官方:GPT 最佳实践》大白话编译解读版本
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
LangChain 的问题所在
由 Harrison Chase 开发的 LangChain 是一个用于与 OpenAI 的
GPT
API(后来扩展到更多模型)进行人工智能文本生成交互的 Python 和 JavaScript 库。
大模型
大语言模型
大模型
PostgreSQL的三位一体——在大模型应用中结合关系型、向量和时间序列数据
另外,在高召回率的情况下,与最先进的基于图的方法(如HNSW[21]和NSG[13])相比,DiskANN在每个节点上可以索引和服务
5
- 10倍的点。
大模型
PostgreSQL
大模型
大模型实践总结
典型代表有:
GPT
系列、LLaMA、OPT、Bloom等。
大模型
训练
大模型
大模型:泛化即智能,压缩即一切
定义
5
:压缩和预测下一个单词本质上是等价的。
大模型
泛化
大模型
总结!大模型微调(Tuning)的常见方法
model_name_or_path, return_dict=True) model = get_peft_model(model, peft_config)
GPT
微调
大模型
AGI
Yann LeCun杨立昆最新观点:AGI不存在
他批评依赖
GPT
等大型语言模型 (LLM) 来实现“超人智能”,理由是它们无法有效理解物理世界、推理或计划。
AGI
大语言模型
观点
大模型
中国大模型「顶流群聊」笔记
李开复就指出,尽管在跟
GPT
-3、GPT3.5 等 SOTA(state of the art,先进)模型的各种评比中,Llama2 的差距不大。
大语言模型
大模型
重磅来袭!Llama中文社区开源预训练中文版Atom-7B大模型
Atom-7B回答:(更为直接和感性)
GPT
-3.5回答:(理性分析和中庸) | 下载使用 进入Llama中文社区网页: https://llama.family 下载
大模型
Stable Diffusion
OpenAI救了Stable Diffusion!开源Dall·E3同款解码器,来自Ilya宋飏等
它同样出自传奇人物之手,一作Alec Radford对
GPT
系列的构建起到了重要作用。
SD
文生图
DALLE
StableDiffusion
StableDiffusion模型推荐系列(全能型)
高清修复幅度:0.3 作者标记的专有提示词 film grain texture,analog photography aesthetic 特点 一个国内的知名模型训练作者(兔狲),这个版本由
GPT
stablediffusion
sd
文生图
语义检索系统[全]:基于Milvus+ERNIE+SimCSE+In-batch Negatives样本策略的学术文献语义检索
0.2.5 chatgpt ChatGPT是美国人工智能研究实验室OpenAI新推出的一种人工智能技术驱动的自然语言处理工具,使用了Transformer神经网络架构,也是
GPT
-3.5架构,这是一种用于处理序列数据的模型
开源模型
【NLP技术分享】文本生成评价指标的进化与推翻
table 分别都在参考翻译S1中 所以 p1 = 1 p2 (a, cat)在, (cat is) 没在, (is on) 没在, (on the) 在, (the table)在 所以p2 = 3/
5
开源模型
手把手!做Llama3的MoE专家混合模型!底层原理怎样的?做自己的MoE模型?需要多少算力?
此外,有传言
GPT
-4 是 MoE,有道理的,因为与密集模型相比,为 OpenAI 运行和训练要便宜得多。
MoE
专家混合模型
Prompt
17岁高中生写了个神级Prompt,直接把Claude强化成了满血o1。
Make new connections 64
5
.
prompt
大模型
Prompt
AI绘画:stable difussion SD插件之 无限抽卡神器 dynamic prompts(动态提示词)
5
.
AI图片
<
...
27
28
29
30
31
32
33
34
35
36
...
>
1
2
4
5
6
7
8
9
100