首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 【ComfyUI】爽玩必备,6大插件汇总推荐 !
· 请以“续航”为题目,写一篇议论文
· 最透彻的大模型PPO原理和源码解读
· 这个数字人开源项目太牛了,非常全面的项目解决方案(含源码)
· 造梦师手记:足控专属AI大模型,完美的少女
· 微调大型语言模型-核心思想和方法介绍
· 大模型中的Top-k、Top-p、Temperature详细含义及解释
· 聊聊AI产品做算法备案这件事
· 造梦师手记:C站首推的动漫模型竟然是十八禁?
· 聊天大模型的输出速度应该是多少?单张显卡最多可以支持多少个人同时聊天?来自贾扬清最新的讨论~
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
ChatGPT
Ollama的本地化又一图形工具ChatOllama,让你轻松玩转ollama,ChatGPT
,比如让它做为你的翻译助手,可以在instrucions选create new instruction创建指令,保存: 最上面选chat,chat with处选择要用的模型,从下拉中选择gemma:
7b
ChatOllama
安装
大模型
中文对话大模型BELLE全面开源!(附:数据+模型+轻量化)
以LLAMA-
7b
(70亿参数)为基础,分别在60万,200万数据上进行指令微调后得到的模型Checkpoint。
belle
训练
大模型
开源
省钱!微软开源框架LLMLingua + LlamaIndex实现提示词压缩
LLMLingua利用紧凑、经过训练的语言模型(例如GPT2-small、LLaMA-
7B
)来识别和移除提示中的非必要标记。
LLMLingua
LlamaIndex
开源框架
大模型
无需翻墙,可合法使用的8款国内AI大模型产品
注册即可免费体验其Baichuan-53B大模型 融合了意图理解、信息检索以及强化学习技术,结合有监督微调与人类意图对齐,在知识问答、文本创作领域表现突出 另有Baichuan-13B、Baichuan-
7B
生成式AI
大模型
全球最强长文本大模型,一次可读35万汉字:Baichuan2-192K上线
在成立仅半年的时间里,这家公司就已经发布了 Baichuan-
7B
/13B、Baichuan2-
7B
/13B 四款开源可免费商用的大模型,以及 Baichuan-53B、Baichuan2-53B 两款闭源大模型
Baichuan2
百川
开源
将任意文本转换为知识图谱
我正在使用出色的 Mistral
7B
openorca 指令,它完美地粉碎了这个用例。
知识图谱
转换
文本
大模型
智源:70万预算,从头开发千亿参数大模型,挑战成功!
FLM在四个项目中取得的平均成绩接近GLM-120B和Llama-
7B
,但训练成本显著低于二者。
大模型
开源
[中文开源震撼首发]33B QLoRA大语言模型Anima真的太强大了!QLoRA技术可能是AI转折点!
之前大部分开源可finetune的模型大都是比较小的模型
7B
或者13B,虽然可以在一些简单的chatbot评测集上,通过finetune训练有不错的表现。
开源模型
开源
Falcon 180B 开源影响了谁?
目前国内免费可商用的大模型分别有:百川智能的Baichuan2-
7B
、Baichuan2-13B、Baichuan2-13B-Chat与其4bit量化版本;智源的悟道3.0中的悟道・天鹰大语言模型
大模型
大模型
国内法律类大模型介绍
LawGPT (2023-04-12) * 基础模型:Chinese-Alpaca-Plus-
7B
 
法律
大模型
ChatGPT
你是否发现ChatGPT甚至不能按字数要求回复问题?有人做了评测并讨论了可能的原因
作者对ChatGPT和Alpaca-
7b
作评估,结果见figure2(可以看到随着被要求词数的变多模型效果在变差,且被要求按某个词作为结尾生成词数一定的句子时比不附加该条件效果会好一些)和table2(
大模型
控制
大模型
推荐智能体:利用大模型进行交互式推荐
- Llama-2-
7B
-chat,Llama-2-13B-chat(Touvron et al. 2023b):来自Meta的Llama的第2个版本。
大语言模型
推荐
大模型
语言大模型100K上下文窗口的秘诀
OneFlow社区 ID | OneFlowTechnology 最近有几个新的语言大模型(LLM)发布,这些模型可以使用非常大的上下文窗口,例如65K词元(MosaicML的MPT-
7B
-StoryWriter
大模型
大模型
最强国产开源多模态大模型MiniCPM-V:可识别图片、视频,还可在端侧部署
该模型基于 SigLip-400M 和 Qwen2-
7B
构建,共 8B 参数。
minicpm
面壁
RAG
检索增强生成(RAG)有什么好的优化方案?
比如可用LLaVA-
7b
生成图片摘要,Chroma作为向量数据库,Nomic's GPT4All作为开源嵌入模型,多向量检索器,Ollama.ai中的LLaMA2-13b-chat用于生成应答[11]。
RAG
检索增强
<
1
2
3
4
5
6
7
8
>
1
2
4
5
6
7
8
9
100