首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 12/180 stable diffusion 局部重绘 换衣|换背景|换模特
· SD入门教程零:应用场景
· 阿里AI黑科技大揭秘:从通义千问到FaceChain,让图片和视频焕发新生!
· EduChat:教育行业垂直领域大模型
· AI 产品榜(2023年08月)5000+ AI产品排名与分析
· 大模型LLM基础|分词
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
大模型文本生成——解码策略(Top-k & Top-p & Temperature)
· Beam Search:维护一个大小为 k 的候
选
序列集合,每一步从每个候
选
序列的概率分布中
选
择概率最高的
大模型
LLM
从零开始用LangChain、Pinecone和LLMs搭建你自己的文档问答系统
2.2、特定于上下文的答案: 语义搜索+GPT问答可以通过将答案基于相关文档中的特定段落来生成更具上下文的、更
精
确的答案。
知识库
langchain
RAG
RAT = CoT + RAG
这种现象在需要一系列逻辑推理的场景中尤其明显,凸显了LLM在长任务推理过程中、
精
确推理和理解上下文的能力方面的差距。
RAT
协同思维链
检索增强生成
OCR
【重磅推荐】PaddleOCR:超越人眼识别率的AI文字识别神器!
二、PaddleOCR功能特点 1.高准确率:PaddleOCR的算法经过
精
心设计和优化,可准确识别不同字体、字号、字形的文字图像,实现超越人眼识别率的准确率。
PaddleOCR
文字识别
提示词
十个节省数百小时无聊工作的GPT提示词
通过
精
确的指示指导我完成每一个可操作的步骤,以便有效地执行。”
prompt
提示词
Github
图像修复神器:女神青涩时纤毫毕现!腾讯AI模型GFPGAN火上GitHub热榜第一,Demo在线可玩
并且修复中也不会过度磨皮,人脸上自然的皱纹也全部
精
细展现。
修复
绘画
高清
RAG
RAG应用中数据处理过程需要注意的事项
· 向量相似阈值:
精
确的重复向量在单词Embeddings中是罕见的,所以如果它们的余弦相似度高于某个阈值
RAG
大模型
Agent
10个具有代表性的AI-Agents,将如何改变互联网/重塑Web3
该项目在Github的介绍是: “该代理能够生成详细、客观、不带偏见的研究报告,并提供定制
选
项,以便集中关注相关资源、提纲和教训。
开源模型
大模型
从第一性原理看大模型Agent技术
在该框架中,模型的决策过程涉及到动作
选
择,这也是主要的功能之一。
大模型
agent
Stable Diffusion
Stable Diffusion教程:提示词
杰作 ultra detailed 超
精
细
提示词
SD
绘画
Stable Diffusion
【ComfyUI】Blender+Stable Diffusion!少年啊,这盛世如你所愿!(附中文汉化插件)
进入“偏好设置”——插件——
选
择“安装”。
开源模型
RAG
12个RAG常见痛点及解决方案
下面对比了在没有重新排序器的情况下直接检索前2个节点,检索不准确;和通过检索前10个节点并使用CohereRerank重新排序并返回前2个节点的
精
确检索。
RAG
大模型
Stable Diffusion
Stable Diffusion | SD阿里云3步部署,全程五分钟,免费试用三个月,电脑无需升级配置
注册好了登录图像变成这样 2、点击免费试用,
选
中函数计算FC,这一步是布置代码运行的算法云环境服务,对AIGC进行GPU推理计算。
下载
ChatGPT
Ollama的本地化又一图形工具ChatOllama,让你轻松玩转ollama,ChatGPT
4.基本聊天4.基本聊天 创建系统指令,也就是聊天中system角色,比如让它做为你的翻译助手,可以在instrucions
选
create new instruction创建指令,保存: 最上面
选
ChatOllama
安装
LLM
更强的小型LLM:Zephyr-7B
精
炼直接偏好优化(dDPO):旨在通过最大化排名偏好响应高于不太偏好的响应的可能性来完善dSFT模型。
Zephyr-7B
大语言模型
<
...
39
40
41
42
43
44
45
46
47
48
...
>
1
2
4
5
6
7
8
9
100