首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 耗时80小时!超详细的胎教级Stable Diffusion使用教程,看这一篇就够!
· ComfyUI官方使用手册【官网直译+关键补充】
· 国内法律类大模型介绍
· StableDiffusion模型推荐系列(功能型)
· 大模型中的Top-k、Top-p、Temperature详细含义及解释
· 必看!ComfyUI故障应对指南,让您轻松应对每一个挑战
· 建议收藏:超详细ChatGPT(GPT 4.0)论文润色指南
· AI声音克隆 | 最全最简教程(权威版)
· 本地部署操作AI抠图软件
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
ChatGPT
ChatGPT实用指南|ChatGPT十步搞定论文【全流程+提示词】
如果宝子们需要帮助开展论文写作任务,但不
知
道如何着手,ChatGPT可以迅速为您提供论文创意,以节省您的时间和精力。
ChatGPT
写作
提示词
大模型
AI大模型LLM可以帮助企业做什么?
大型语言模型展示了对世界
知
识
的强大掌握能力,以及对语言的深刻理解。
大模型
大模型
从第一性原理看大模型Agent技术
,如引入向量数据
库
,把数据索引进向量数据
库
,再召回数据,再提交给大模型做Prompt工程,这样就可以使用最新的
知
识
和比大模型里的
知
识
更准确的
知
识
。
大模型
agent
SDXL
它来了!SDXL + ControlNet 终于强强联合!
我们都
知
道,相比起通过提示词的方式,ControlNet 能够以更加精确的方式引导 stable diffusion 模型生成我们想要的内容。
SDXL
大模型
为什么Llama2大模型可以在个人电脑上部署 ?
你
知
道这个意味着什么吗?
开源模型
ChatGPT
10个值得收藏的ChatGPT辅助编程技巧
我必须明确这一点,因为许多误入歧途的绵羊被告
知
ChatGPT 是新的圣杯,开发人员将被淘汰。
编程
提示词
chatgpt
SDXL
总结些SDXL出人像时遇到的困难
一直想搞人像摄影类写真,苦于不
知
道出什么主题,这次的大英博物馆系列真是给我指明了方向,可以根据文物颜色、材质、内容出图,也是锻炼了我的提示词能力。
文生图
SDXL
开源
M3E 可能是最强大的开源中文嵌入模型
01 — 最近在研究和部署使用 LangChain + LLM(ChatGPT/ChatGLM) 构建企业专有
知
识
库
时,接触到两个
开源模型
大模型
回望做大模型一年后的感悟
回望这一年,太多和大家雷同的观点在这里就不赘述了,记录几个听上去有点反共
识
的点吧(其实很多也慢慢达成共
识
了)。
大模型
感悟
Meta
如何微调Meta Llama-3 8B
这是一种利用现有模型的
知
识
并针对特定任务进行定制的方法。
Meta
Llama
3
大模型
大模型
10个大模型私有化需要关注的问题
笔者提出的这些点符合基本认
知
,值得归纳总结,帮助全面,系统地进行私有化落地。
开源模型
大模型
百川智能RAG方案总结:搜索出生的百川智能大模型RAG爬坑之路
今天对百川的RAG方法进行解读,百川智能具有深厚的搜索背景,来看看他们是怎么爬RAG的坑的吧~ 总的来说,百川通过长上下文模型(192k)+搜索增强结合的方法来解决
知
识
更新,降低模型幻觉的问题,使得其在
RAG
大模型
Agent
聊聊我对AI Agents技术的一些看法
但是基于各种特定神经网络架构的策略网络没有足够的“泛化”能力,无法实现通用的智能决策,同时,强化学习范式似乎有时候也要求着太多对“智能体”而言完全不合理的“试错”,Agent 本身似乎完全是一张白纸而没有任何“先天
知
识
AI
Agents
大模型
大模型
大模型检索增强生成RAG的优化
· 大模型迭代:基于正反馈微调模型、量化感
知
训练、提供大context window的推理模型。
RAG
检索增强
大模型
大模型
大模型高效微调:🤗 PEFT 使用案例
#129303; PEFT(Parameter-Efficient Fine-Tuning,参数高效微调),是一个用于在不微调所有模型参数的情况下,高效地将预训练语言模型(PLM)适应到各种下游应用的
库
。
大模型
<
...
14
15
16
17
18
19
20
21
22
23
...
>
1
2
4
5
6
7
8
9
100