首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· MCP服务介绍及应用场景报告-来自Manus
· 理解 o3 及其技术分析
· ChatLaw
· 这个数字人开源项目太牛了,非常全面的项目解决方案(含源码)
· 揭秘数字人困境:代理商亏钱、直播屡被封、刘润也不用了
· AI 爆文写作:如何用GPT写出10万+?这篇五千字长文给你答案
· Math.now
· 变天了,AI可以一键生成中文海报了......
· 【TTS语音克隆开源最强王者】5款爆火开源模型(Fish、F5、GPT、CosyVoice、MaskGCT)效果对比,等你来评!
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
9个范例带你入门langchain
------- Prompt End ------- output = llm(final_prompt)print (output) People argued for a
long
time about
大模型
大模型
使用大模型自动回复小红书/抖音/快手评论:通过RAG 优化LLMs实现
= "
Context
:\n"  
RAG
大模型
自动回复
LLM
AutoGPT与LLM Agent解析
如果未来在模型
context
size 上有突破性的研究进展,那么当前的这类模式或许就不再需要了。
大模型
人工智能
人工智能大语言模型微调技术:SFT 、LoRA 、Freeze 监督微调方法
在快速发展的人工智能领域,高效且有效地利用大型语言模型 (LLM) 变得越来越重要。但是我们可以通过许多不同的方式使用大型语言模型,如果您刚开始,这可能会让人不知所措。本质上,我们可以通过两种主要方式将预训练的大型语言模型用于新任务:上下文学习(in-context learning)和微调(finetuning)。在本文中,我们将介绍介绍微调 LLM 的各种方法。
大模型
微调
OpenAI
AI Agents大爆发:软件2.0雏形初现,OpenAI的下一步
算法蒸馏(AD)的工作原理 Source:Algorithm Distillation 论文 In-
context
Reinforcement Learning with Algorithm
agent
开源
Giraffe:世界上第一个商业可用的32K长上下文开源LLM(基于Llama-2)
项目链接 https://github.com/abacusai/
long
-
context
出自:https://mp.weixin.qq.com/s/pSmT3uZOJAw7ClSz0gcJyA
开源模型
ChatGLM
基于本地知识的问答机器人langchain-ChatGLM
通过Faiss搜索得到与query_embedding关系最紧密的Top K个Document,将这些Document的内容按换行符拼起来作为query的
context
。
langchain
AI制作小朋友的睡前故事画册
masterpiece,ultra high res,childpaiting,1girl,solo,crayon drawing,iparty hat,hat,glasses,brown hair,confetti,
long
SD1.5
文生图
Stable Diffusion
嘴里塞饭型Stable Diffusion提示词写法实用小笔记
来看看对比图:
Long
blond hair [pink|blond]
long
hair 在这个里面的[pink|blond]
long
hair,用中括号将颜色隔开,渲染的时候,是一步粉红一步金色
stablediffusion
prompt
提示词
开源
国内外开源大语言模型一览表
It targets promoting novel approaches to
long
-tail problems in medicine, and meanwhile, it seeks solutions
大模型
ChatGLM
60分钟吃掉ChatGLM2-6b微调范例~
,我们的模型准确率为87.8%,下面我们通过6000条左右数据的微调,看看能否把acc打上去~ ��� 一,准备数据 我们需要把数据整理成对话的形式,即
context
开源模型
大模型
造梦师手记:足控专属AI大模型,完美的少女
1、女孩的脚 提示词: (score_9,score_8_up,score_7_up),1girl,solo,red eyes,black hair,
long
hair,looking
pony
大模型
文生图
提示词
风景类提示词
An extra-
long
shot to capture the imposing dragon, in the grand and detailed style of Andreas Gursky.
画图提示词
LLM
一文探秘LLM应用开发-Prompt(相关概念)
而这些附加的信息我们叫做“
context
”,即上下文。
prompt
大模型
LLM
LLM native策略的内部状态是否应该结构化 【2023Q3】
ensp; 【Q1.1】目前的LLM的
Context
window还不够大,如果
context
超过了限制怎么办
大模型
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100