首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 使用这个工具后,我将 RAG 的准确性和召回率都提高了两倍!
· 硬核解读Stable Diffusion(系列三)
· Pytorch安装(保姆级教学 真·满血·GPU版)CUDA更新?torch版本?一文全搞定!
· LangChain Agent 原理解析
· 无需翻墙,可合法使用的8款国内AI大模型产品
· AI Agent行业深度:框架拆解、应用方向、应用领域及相关公司深度梳理
· SD入门教程零:应用场景
· 教会AI画汉字(ComfyUI篇)
· 有道开源的国产语音库EmotiVoice爆火了!具有情绪控制功能的语音合成引擎!
· 100个最强Ai实用工具精讲 - 拒绝焦虑拥抱Ai
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
训练魔法
高效选择:Ollama与LM Studio深度对比
Ollama与LM Studio是两款本地语言模型工具,Ollama以简单易用、开源及定制化灵活为特点,适合初学者和非技术人员;LM Studio则功能丰富、用户界面友好、商业支持强,并提供广泛模型资源,适合追求功能丰富的用户。两者在模型选择与兼容性上各有优势,用户可根据需求选择。
Ollama
LM
Studio
对比
2024-09-27
2024-09-27
RAG
RAG 2.0,终于把RAG做对了!
**RAG 2.0革新生成式AI,通过端到端训练将检索器与LLM结合,提升实时响应准确性。然而,随着大型语言模型处理长序列能力的提升和成本降低,RAG的未来面临挑战,其存亡或将取决于成本效益考量。**
RAG
大语言模型
2024-09-27
2024-09-27
Agent
Agent具体实现
文章总结了使用Langchain Agent解决复杂多步问题的方法,适用于可拆分为多个子模块的问题场景。Agent通过Thought-Action-Observation循环自动选择并执行动作,无需手动编写if/else逻辑。Langchain提供工具支持,用户可自定义工具并封装成代理程序,实现模块化复用。Agent相比Chain更动态,由大模型决策过程。文章启发是将方法封装成代理,利用大语言模型组装积木块解决问题。
Agent
大模型
2024-09-26
2024-09-26
开源
RAGFlow:开源的RAG引擎,专注于深入的文档理解,支持处理各种复杂格式的非结构化数据
RAGFlow是开源的RAG引擎,专注于深度文档理解,通过大型语言模型提供真实问答能力,支持多种复杂格式数据。其特点包括智能、可解释、可视化分块、支持多种数据源和可配置模型等。系统架构未详述,但提供了详细的安装、配置及从源代码构建Docker镜像的步骤,适用于各种规模企业。
RAGFlow
RAG
开源
2024-09-25
2024-09-25
开源
搞了一个Dify开源知识库
也是在机缘巧合下,感谢MAX和众多大佬的呼声支持下,临时组建了这么一个dify开源交流社区,因为我是初学者,从官方文档入手,从一个初学者的角度步步为营,整理出一个公开的知识库v1.0版本,因为时间仓促,不太完善,欢迎技术大佬、开发者一起来完善。
Dify
大模型
知识库
2024-09-25
2024-09-25
ComfyUI
从零开始:构建你的首个ComfyUI工作流
从2023年下半年开始,AI绘画界出现了一颗新星——ComfyUI。这个工具以其快速、流畅的图像生成能力,以及对低配置设备的友好性,迅速在创作者中流行起来。ComfyUI的一个亮点是能够一键加载大量工作流,让用户轻松实现人像生成、背景替换和图片动画化等功能。 如果你像许多人一样,是通过Web UI开始你的stable diffusion之旅,那么你可能会对ComfyUI的崛起感到好奇。这个工具的受欢迎程度正在迅速上升,已经成为许多AI绘画爱好者的首选。在本篇文章中,我将带你了解ComfyUI,这个正在改变AI绘画游戏规则的应用。
comfyui
文生图
工作流程
2024-09-24
2024-09-24
大模型
北大开源最强aiXcoder-7B代码大模型!聚焦真实开发场景,专为企业私有部署设计
aiXcoder团队发布了全新开源的代码大模型aiXcoder-7B Base版,专注于企业软件开发场景,尽管参数仅70亿,但表现超越340亿参数的Codellama,成为百亿级最强代码大模型。该模型在真实开发场景中表现优异,尤其在代码生成补全和跨文件能力上领先,支持私有化部署和个性化定制,旨在提高开发效率和代码质量,加速软件开发自动化进程。
aiXcoder-7B
大模型
2024-09-24
2024-09-24
RAG
RAG 修炼手册|一文讲透 RAG 背后的技术
本文详细介绍了从Embedding技术到Transformer、BERT、LLM(包括GPT系列和ChatGPT)等自然语言处理领域的发展历程及基本原理。Embedding将非结构化数据转为向量表示,Word2Vec是其早期代表,但存在多义词问题。Transformer通过自注意力机制捕捉上下文关系,推动了BERT等预训练模型的发展,实现了句子嵌入。GPT系列作为LLM的代表,通过不断迭代提升了文本生成能力,ChatGPT则进一步增强了响应指令、代码生成、推理等能力,但也存在数学能力弱、产生幻觉、知识不实时更新等不足。RAG技术作为解决方案之一,结合了向量数据库和LLM。整体而言,深度学习在自然语言处理领域的应用日益广泛,未来可期。
RAG
Embedding
2024-09-23
2024-09-23
大模型
Meta无限长文本大模型来了:参数仅7B,已开源
Meta提出了MEGALODON,一种用于高效大语言模型(LLM)预训练和推理的神经架构,实现了无限长上下文的建模能力。该架构继承并改进了MEGA架构,通过引入复数指数移动平均(CEMA)、时间步归一化层、归一化注意力机制及具有两跳残差的预归一化配置,提高了模型在处理长文本时的效率和稳定性。实验结果显示,MEGALODON在多项基准测试中表现优异,特别是在处理长上下文时,显著优于现有的Transformer变体,证明了其在建模极长序列方面的有效性和鲁棒性。
Meta
长文本
大模型
2024-09-20
2024-09-20
LLM
LLM Agent最常见的九种设计模式(图解+代码)
本文介绍了LLM Agent的九大设计模式,包括ReAct、Plan and Solve、Reason without Observation、LLMCompiler、Basic Reflection、Reflexion、Language Agent Tree Search、Self-Discover和Storm。每种模式通过其原理、提示词模板、架构组成等方面进行了详细阐述,并强调了通过定制Prompt模板和外部工具定义来实现Agent落地场景的重要性。文章最后指出,没有最好的设计模式,只有最适合用户需求的设计模式。
LLM
Agent
图解
2024-09-19
2024-09-19
大模型
比GPT-4快18倍,世界最快大模型Groq登场!每秒500 token破纪录,自研LPU是英伟达GPU 10倍
Groq模型以惊人速度每秒输出近500个token,远超ChatGPT-3.5,其背后自研的LPU(语言处理单元)是关键,比GPU性能快10倍,且成本更低。Groq模型免费用,支持多种AI开发框架,但不支持训练。LPU设计独特,采用SRAM而非HBM,提升了速度和能效,适合大规模AI推理。Groq已在基准测试中表现出色,或可取代GPU在AI推理中的应用。公司CEO表示其目标是帮助更多人发展AI。
Groq
大模型
2024-09-18
2024-09-18
Sora
深度|万字访谈!Open AI Sora作者,亲自揭秘Sora原理,Sora能带我们通往AGI吗?
本文精心编译自 OpenAI Sora 的主要作者Tim Brooks 和 Bill Peebles 在AGI House 主题演讲。Tim 和 Bill 轮番分享了Sora的训练细节、数据工程及未来设想,是技术报告之外最一手的信息。ZP 团队摘要了其中亮点信息,同时也推荐你阅读原文,Enjoy !
Sora
原理
2024-09-14
2024-09-14
大模型
苹果一次性开源了8个大模型! 包含模型权重、训练日志和设置,OpenELM全面开源
苹果罕见开源大模型OpenELM权重、训练和评估框架,并升级CVNets为CoreNet,支持更广泛AI任务。OpenELM采用创新架构,参数非均匀分配提升精度,但处理速度较慢。CoreNet拓展至多种AI任务,加速CLIP等模型运行。网友推测发布或与苹果发布会相关。
OpenELM
大模型
2024-09-13
2024-09-13
Transformer
万字长文震撼来袭!揭秘Transformer——吐血解读自注意力机制的革命性突破
目前主流的序列转换模型都基于复杂的循环神经网络(RNN)或卷积神经网络(CNN),包含编码器和解码器两部分。表现最好的模型还通过注意力机制将编码器和解码器连接起来。我们提出了一种全新的简单网络架构——Transformer,它完全基于注意力机制,摒弃了循环和卷积操作。在两个机器翻译任务上的实验表明,这些模型在质量上更优越,同时更易于并行化,且训练时间大大减少。我们的模型在WMT 2014英语到德语的翻译任务上达到了28.4的BLEU分数,比现有最佳结果(包括集成模型)高出2 BLEU以上。在WMT 2014英语到法语的翻译任务上,我们的模型在8个GPU上训练了3.5天后,创下了单模型新的最佳BLEU分数记录,达到了41.0分,这仅为文献中最佳模型训练成本的一小部分。 敲黑板,划重点 引出了新的Transformer模型架构,该模型完全基于注意力机制,摒弃了循环和卷积操作。
Transformer
大模型
2024-09-13
2024-09-13
OCR
中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
面壁智能,一家清华背景的创业公司,通过优化大语言模型,发布了一系列轻量级、高性能的MiniCPM模型,包括多模态MiniCPM-V 2.0、适配端侧场景的MiniCPM-1.2B、长文本模型MiniCPM-2B-128K及MoE架构模型MiniCPM-MoE-8x2B。这些模型在同等成本下实现了卓越效果,并在OCR、长文本理解等任务中表现突出。面壁智能通过独特技术和高效训练模式,挑战了传统大模型“大即好”的观念,认为提升每个参数的效率是核心。公司已获新轮融资,将进一步推动大模型的高效训练和应用落地,为AGI通用基座大模型奠定更坚实基础。
MiniCPM
大模型
2024-09-12
2024-09-12
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100