首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 10大Midjourney描述词网站,让你Ai创作随心所欲!
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 绝对是你的下载神器!AixDownloader可让你从任何网页下载你想要的内容,音乐、视频、图像、文件等!
· 从第一性原理看大模型Agent技术
· AI换脸工具:facefusion使用心得
· 备案通过且面向公众开放的国产精品大模型汇总,附访问链接
· AI高手都在用的10个提示词prompt网站,建议收藏!
· 40个prompt,让你成为麦肯锡高手
· TTS它又来了!OpenVoice:一款借鉴于TTS实现的强大的AI语音克隆工具!
· Stable Diffusion 30种采样器全解!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
RAG
Rerank——RAG中百尺竿头更进一步的神器,从原理到解决方案
我们在一些客户的实践过程中,还是发现相关性效果不佳,甚至造成了其中一个客户选择了其他方案(使用RAG+
GPT
-
4
的方案)。
RAG
检索增强
微调
一文讲明白什么是预训练、微调和上下文学习
比如说在包含数百万本书、文章和网站的数据集上预训练像
GPT
-3 这样的语言模型。
大模型
训练
大模型
人话聊AI大模型:AIGC如何助力营销的秘密(上)
如何与营销相结合: 一、AIGC赋能营销的业界典型企业 营销素材-文本:Jasper & Copy.ai Jasper成立于2021年,作为一款领先的AI营销工具和写作助手,其底层模型最初源于
GPT
大模型
大模型
中国大模型「顶流群聊」笔记
就拿极客公园的创业者社区 Founder Park 来说,因为比较早关注到大模型领域的技术变化,在短短
4
个月时间就新增了 15 万关注者,社区成员已经扩充到七八千人之多。
大语言模型
停用词(Stop Words)的价值、收集与使用
县长 666 是
4
停用词
ComfyUI
集成文字生成、抠图、图像融合等强大功能的comfyUI 插件 Allor Plugin
draw.rounded_rectangle(TypeError: ImageDraw.rounded_rectangle() got an unexpected keyword argument 'corners' 通过咨询网友和
GPT
comfyui
插件
绘画
LLM
谈谈LLM在推荐域的渗透,探索推荐新范式
大模型 一般认为NLP领域的大模型>=10 Billion参数(也有人认为是6B、7B, 工业界用, 开始展现涌现能力);经典大模型有
GPT
-3、BLOOM、Flan-T5、
GPT
-NeoX、
大模型
ChatGLM
从0到1基于ChatGLM-6B使用LoRA进行参数高效微调
: "Telegram"} > {"context": "Instruction: Explain why the following fraction is equivalent to 1/
4
\
大模型
Sora
微软对 Sora 进行了逆向工程分析,揭秘 Sora 的秘密
与
GPT
-
4
等大型语言模型相似,Sora 能够解析文本并理解复杂的用户指令。
Sora
微软
大模型
国产编程大模型CodeGeex
推荐使用aria2通过以下命令快速下载(请保证有足够的硬盘空间存放权重(~26GB)): aria2c -x 16 -s 16 -j
4
--continue=true -i urls.txt
编程
OpenAI
被时代选中的智谱 AI:成为 OpenAI,超越 OpenAI
GPT
-3 的发布给了大家非常明确的信号,即大型模型真正具备了实际可用性。
智谱
AI
GPTs
刚上线就崩了?字节版 GPTs 征战国内市场:无需编码,快速创建 AI 聊天机器人
2015 年,朱文佳加入字节跳动,被称为“今日头条里算法技术的 Top3 人选”,并在入职
4
年后担任今日头条 CEO。
Coze
聊天机器人
大模型
深入探秘:百川7B大模型的训练代码解析,揭秘巨无霸语言模型背后的奥秘
并处理得到最后一层的输出 四:DecoderLayer类 下面看一下每一层的decoder的结构是什么: 这个结构可以参考经典的tansformer decoder结构,这个也是
GPT
大模型
LLM
最详细的文本分块(Chunking)方法——可以直接影响基于LLM应用效果
在某些情况下,比如使用具有32k上下文窗口的
GPT
-
4
时,拟合块可能不是问题。
RAG
大模型
大模型
领域大模型LLM训练Trick
不过
GPT
系列大模型的预训练和微调,从实现方式上来讲是没有什么差别的,都是用decoder only的语言模型进行训练并更新参数,如果样本数量比较少,没有大量的篇章文档数据,个人认为只进行微调也能够注入知识
垂直
训练
大模型
<
...
22
23
24
25
26
27
28
29
30
31
...
>
1
2
4
5
6
7
8
9
100