首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 爆肝两天!ChatGPT+提示词解决知识库目录混乱
· 如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
· ChatPDF | LLM文档对话 | pdf解析关键问题
· 好用的令人发指的图生图,你就告诉我抄哪个吧!—StableDiffusion 第三弹
· 从零开始用LangChain、Pinecone和LLMs搭建你自己的文档问答系统
· 中文开源OCR框架对比及介绍
· 向量数据库失宠了?OpenAI 力捧检索增强生成(RAG)技术,对行业来说意味着什么?
· ComfyUI-ControlNet不能漏啊!
· 腾讯出品!开源AI数字人框架!号称可以不限时长
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
零一万物
零一万物API开放平台出场!通用Chat多模态通通开放,还有200K超长上下文版本
而且图片输入分辨率也提高到了1024×1024分辨率,并专门针对图表、截屏等
生
产力场景进行了优化。
零一万物
YI
李开复
微调
LLM微调神器Lamini,疯狂获星1.9k,免费可用!!
项目地址:https://github.com/lamini-
ai
/lamini 它的优势如下: · 免费,适用于小型 LLM;
大模型
心理
万字长文,大语言模型如何宣告心理学的死亡?
对于LLM自身所涌现的特质而言,它最多只能被灌输或者训练
成
看起来像是在“努力追求
生
存”的样子。
大语音模型
ChatGPT
巧用这13个原则!创作ChatGPT提示词Prompt时效率提高10倍!
把复杂任务拆解
成
一系列简单的提示,以进行交互式对话。
prompt
提示词
ChatGPT
ChatGPT写论文指令全集
每种提示类型都有其独特的作用和效果,使用户能够根据不同的需求和场景来优化与
AI
的交流。
ChatGPT
写作
Prompt
写不好Prompt?可以先写个粗糙版本,然后让GPT帮助优化。
2、带目标的继续优化 我们继续让它优化: 还有没有优化的空间,我的目标是:在实际工作中能更好的使用,同时
成
为同行中的专家。
Prompt
GPT
语音
国内厂商语音识别与Whisper评测:现状与概况对比
随着人工智能技术的飞速发展,语音识别已经
成
为了现代社会中一个重要的研究领域。
语音识别
Faster-Whisper
体验Outfit Anyone,高质量虚拟换装,效果如何?
首先,它能
生
成
高质量、逼真的虚拟试穿画面,让你感受到真实的穿着效果。
Outfit
Anyone
模拟
Stable Diffusion
Stable Diffusion插件:提示词
可以使用我分享的资源,关于微信公众号:萤火遛
AI
(yinghuo6ai),发消息:SD,在插件文件夹中找到 sd-webui-prompt-all-in-one,下载后解压,然后上传到 WebUI 的插件目录
Stable
Diffusion
提示词
开源
玩一玩阿里通义千问开源版,Win11 RTX3060本地安装记录!
同时,在Qwen-7B的基础上,我们使用对齐机制打造了基于大语言模型的
AI
助手Qwen-7B-Chat。
通义千问
微调
LLM微调经验&认知
延申下来,可以理解Llama(原
生
)是一个会听不会讲中文的人,用中文语料做指令微调,实际上更多是教他“说中文”。
LLM
大模型
数据库
颠覆数据存储方式:向量数据库的威力
细心的你可能会发现,紫色的向量表示是 [0.5, 0, 0.5],没错,这代表紫色是由红色和蓝色组
成
。
编程
数据库
大模型
基于Ollama本地部署谷歌开源Gemma大模型!
Gemma 的名字来源于拉丁语 "gemma",意为“珍贵的石头”,象征着其在
AI
领域的重要价值。
ollama
gemma
qwen
开源
研究人员开源中文文本嵌入模型,填补中文向量文本检索领域的空白
由于 GPT 使用的 Transformer 模型的自身特性,导致模型只能从固定长度的上下文中
生
成
文本。
GPT
大模型
使用大模型自动回复小红书/抖音/快手评论:通过RAG 优化LLMs实现
在这里,我将讨论如何通过检索增强
生
成
(即 RAG)来提高 LLM 的性能。
RAG
大模型
自动回复
<
...
69
70
71
72
73
74
75
76
77
78
...
>
1
2
4
5
6
7
8
9
100