首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· ComfyUI官方使用手册【官网直译+关键补充】
· “大模型+机器人”的现状和未来,重磅综述报告来了!
· 长窗口大战要终结了?谷歌魔改Transformer,推出了“无限注意力”
· Stable Diffusion 30种采样器全解!
· 教会AI画汉字(ComfyUI篇)
· 腾讯出品!开源AI数字人框架!号称可以不限时长
· GPU 性能(数据表)快速参考
· WeChatpy:Python中优秀的微信开发库,与微信官方接口交互的工具
· Suno音乐新手指南(手把手完整版教程)
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
LLM
LLM native策略的内部状态是否应该结构化 【2023Q3】
虽然
大
家在这方面有一种说不
清
楚的模糊偏好,但这也许只是我们没能拆掉思维中已经过时的墙。
大模型
Agent
AI Agent / 智能体观察笔记(下)
用户给GPT输入目标后,智能体会给用户整理一个任务
清
单。
大模型
Agent
AI Agent / 智能体观察笔记(上)
智能体和
大
语言模型的使用区别
大
语言模型:用户输入一个Prompt(提示词),AI根据提示词生成一个结果返回给你,如果你需要AI生成新的内容,你需要再次输入提示词——
大
语言模型就是这么用的。
大模型
baichuan2 有什么好的 深挖论文中涉及的知识点
模型首先使用 2,000 个线性缩
放
步长进行暖机,达到最
大
学习率,然后应用余弦衰减(cosine decay)到最小学习率。
大模型
RAG
LangChain - RAG:线上系统多文档要频繁更新,每次都要重新花钱做一次 embedding,老板不批预算,批我...
做为
大
模型落地的两
大
方向之一,RAG 有个很
大
的坑等着我们,设想一下,需要定时更新一匹 PDF 文件到 RAG chatbot 里面去,总量不算多也不算少
大
约 15,000~ 的样子,开发环境里面根本没考虑过重新
大模型
Agent
AI领域的agent是什么意思?
From:
大
模型下半场,关于Agent的几个疑问 From:
大
模型下半场,关于Agent的几个疑问 一个精简的Agent决策流程: Agent:P(感知)→ P(规划)→
大模型
ChatGPT
PHP提示词技巧,全方位精调ChatGPT复杂任务生成效果!!!
小说灵感来源:美国参议院决定
放
宽非正式着装规定。
大模型
心理
Asimov的预言与《Reflexion》的Prompt启示:机器人心理学家的新纪元
例如,在HumanEval编码基准测试上,Reflexion达到了91%的pass@1准确率,
超
过了之前的最新技术GPT-4的80%。
大模型
9个范例带你入门langchain
different things up close and it was really, really big. 2,长文本总结 对于文本长度较短的文本我们可以直接这样执行summary操作 但是对于文本长度
超
过
大模型
微调
LLM微调神器Lamini,疯狂获星1.9k,免费可用!!
LLM(
大
规模语言模型)的微调不再困难!!
大模型
教程
用so-vits-svc-4.1进行音色转换的极简教程
主要是因为孙燕姿的音色独特,吐词
清
晰,网络上存在她的
大
量歌曲,非常便于训练。
声音
sovits
开源
研究人员开源中文文本嵌入模型,填补中文向量文本检索领域的空白
数据
清
洗方面,M3E 模型具有出色的向量编码能力,可在此基础上实现一些数据
清
洗的算法。
GPT
开源
无显卡+纯本地跑Qwen1.5版模型!0基础闭眼部署指南!适用绝
大
部分开源模型!llama2+Mistral+Zephyr通杀!
我们先看看他常规尺寸的数据,这么看,各项数据,不管
放
在国内外,在开源阵营中,都是非常能打的!
Qwen1.5
开源模型
LLM
【一步一步引导】从零详细地梳理一个完整的 LLM 训练流程
通常来讲,在 Finetune 任务中,我们通常会直接使用 truncation 将
超
过阈值(2048)的文本给截断, 但在 Pretrain 任务中,这种方式显得有些浪费。
大模型
训练
LLM
CMU华人打破
大
模型黑盒,Llama 2撒谎被一眼看穿!脑电波惨遭曝光,LLM矩阵全破解
仅仅利用LLM认为每个答案都是正确的程度,在QA基准上,LAT的表现就
超
越了Few-Shot。
大模型
<
...
33
34
35
36
37
38
39
40
41
42
...
>
1
2
4
5
6
7
8
9
100