首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 如何成为LLM提示词大师!「大语言模型的底层心法」
· 如何快速构建GPTs个人知识库应用?
· 全新换脸工具ReActor,比roop更强!
· Stable Diffusion真实人物转卡通证件照(2.0版)
· 好用的令人发指的图生图,你就告诉我抄哪个吧!—StableDiffusion 第三弹
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· 北大开源最强aiXcoder-7B代码大模型!聚焦真实开发场景,专为企业私有部署设计
· 搞了一个Dify开源知识库
· 教你用StableDiffusion设计AI数字人
· Stable Diffusion基础:ControlNet之细节替换
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
AI人工智能大模型通用办公提示词-献给像我一样的社畜们
让模型使用类
比
或
比
喻的方法解释复杂问题: Explain complex ideas using analogies or comparisons.
写作
AI写作:一步到位,如何用 AI 生成整篇文章?做自媒体必看!
一、短内容 如果要写的内容
比
较简短,
比
如小红书文案、短视频稿。
结构化提示词
写作
大模型
大模型微调方法总结
作者
对
全模型微调(Full)、Adapter、AdapterFusion 三种方法在各个数据集上进行和
对
比
试验。
开源模型
LLM
最详细的文本分块(Chunking)方法——可以直接影响基于LLM应用效果
而这些环节里面我们每个都没达到1(
比
如0.9、0.7...)
RAG
大模型
腾讯
阿里腾讯豪华阵容参投,智谱AI投资版图曝光
比
如大模型领域大家最关心的算力问题,智谱早在这件事变成一个卡脖子难题之前就有所布局。
智谱
阿里
歪理大集合,谁也跑不了
比
如中央空调的场景就是气候、用量、当前温度等,行动则是空调温度控制等。
大模型
开源
开源免费离线语音识别神器whisper如何安装
whisper的日常用途 whisper的核心功能语音识别,
对
于学生党和工作党来说,可以帮助我们更快捷的将会议、讲座、课堂录音整理成文字稿;
对
于影视爱好者,可以将无字幕的资源自动生成字幕,不用再苦苦等待各大字幕组的字幕资源
wisper
翻译
免费
大模型
发现一个好东西,一键本地运行各种大模型!包括最新的Qwen1.5
比
如,我之前搞了一个叫Jarvis的一键运行包,想着可以集成各种最新的大模型。
Qwen1.5
大模型
微调
NEFTune:在Embedding中加入噪⾳提⾼指令微调效果!
NEFTune导致在
对
话任务的性能上出现了显著的⻜跃,同时保持了
对
事实性问题回答基线的性能。
NEFTune
大语言模型
懒人福音!用AI生成会议纪要,让你的工作更高效!
**准确性**:AI技术能够精确地记录会议中的
对
话,减少人为错误,确保纪要的准确性。
会议纪要
AI工具
开源
一个专业级 AI 聊天浏览器,开源了!
对
于热衷于体验、调试、评测各种大模型的用户与开发者来说,每次都需要在浏览器上打开多个标签,访问不同网站,再跟 AI 聊天机器人
对
话以获取结果,流程着实有点繁琐。
开源
大模型聊天
大模型
苹果一次性开源了8个大模型! 包含模型权重、训练日志和设置,OpenELM全面开源
需要注意的是,设置和时则
对
应了标准均匀的Transformer模型。
OpenELM
大模型
最顶尖的大语言模型人才,只关心这10个挑战
我个人认为,
对
于企业应用场景来说,这个
比
例还可能更高。
大语言模型
AI提示设计技巧剖析 - 29个动词助你获取更好文本生成
19.丰富(Enrich) 场景:这是一篇
比
较简单直接的说明文。
提示词
文本
大模型
大模型应用实践:用LLaMA 2.0, FAISS and LangChain实现基于自由知识问答
它有三种不同的模型大小(即7B、13B和70B),与Llama 1模型相
比
有显著改进,包括在40%更多的tokens上进行训练,具有更长的上下文长度(4k tokens ��
开源模型
<
...
41
42
43
44
45
46
47
48
49
50
...
>
1
2
4
5
6
7
8
9
100