首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· Stable Diffusion 30分钟打造AI 写真照片生成器|海马体照相馆这次真的要木得了
· 七问大模型幻觉|LLM Hallucination
· 会“追问”的Agent,大模型知识库另类实践
· ChatGLM智谱清言
· Stable Diffusion API
· ChatGPT写论文最强指令
· 新手向,Stable Diffusion API 接口,在本地调用
· 10大Midjourney描述词网站,让你Ai创作随心所欲!
· 自从prompt用了示例演示,GPT的输出稳定性达90%
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
研究人员开源中文文本嵌入模型,填补中文向量文本检索领域的空白
图
丨项目中模型的关键数据对比(来源:王宇昕) 文本的嵌入式表达本身是一个泛用性特别强的算法。
GPT
大模型
最透彻的大模型PPO原理和源码解读
你可能还有以下问题: (1)问题1:
图
中的下标是不是写得不太对?
PPO
大模型
源码解读
大模型
我为什么不看好大模型行业
今天是平安夜,题
图
是我制作的贺卡,以承泽园的建筑为背景,我家俩闺女为主角,祝愿大家平安夜平安,圣诞节快乐!
大模型
大模型
大模型应用发展的方向|代理 Agent 的兴起及其未来(下)
LLM代理应用的拓扑
图
如
图
6所示。
大模型
ChatGPT
还在用“You are expert”这种提示词?连ChatGPT都瞧不起你,试试这些Prompt吧
或者,“你是一家代理机
构
的专业创意总监。
prompt
提示词
爬虫
主流网络爬虫蜘蛛详解
必应集成了多个独特功能,包括每日首页美
图
,与 Windows 操作系统深度融合的超级搜索功能,以及崭新的搜索结果导航模式等。
爬虫蜘蛛
详解
RAG
RAG模型的主要痛点和解决方案
对于每一个主要的痛点,我们首先解释背景并描述为什么它
构
成了问题。
rag
大模型
Meta
各个语种互相翻译:Meta推出NLLB-200 AI模型,可实现200种语言互译
△NLLB支持的部分语种截
图
由于这些语言之间都可以两两互译,所以咱们能用NLLB把阿斯
图
里亚语、卢甘达语、乌尔都语等地球上的小众语言直接译成中文了。
翻译
大模型
Mixtral 7B 官宣免费,一大波 AI 模型也免费了,有网就能用!
下
图
是它的评分表: 体验链接:https://anakin.ai/apps/zephyr-16452 MythoMist MythoMist 7B 代表了迭代设计的巅峰,体现了高度实验性的范例
开源
大模型
大模型
链接大模型与外部知识,智源开源最强语义向量模型BGE
Embedding 002为蓝色 中文语义向量 全面评测基准 C-MTEB 此前,中文社区一直缺乏全面、有效的评测基准,BGE 研究团队依托现有的中文开源数据集
构
建了针对中文语义向量的评测基准
embedding
语义向量
大模型
使用大模型自动回复小红书/抖音/快手评论:通过RAG 优化LLMs实现
这些限制可能导致对用户查询产生不良(甚至是虚
构
的)模型响应。
RAG
大模型
自动回复
大模型
AI人工智能大模型通用办公提示词-献给像我一样的社畜们
充当
图
表生成器 我希望您充当 Graphviz DOT 生成器,创建有意义的
图
表的专家。
LLM
StreamingLLM 框架:利用最新标记让 AI 记住你的话、创作长篇小说,探索无限长度文本
02 — 下
图
为StreamingLLM与现有方法的对比
图
示,建模任务为:语言模型在长度为L的文本上进行预训练,预测第T个标记(T≫L)。
大模型
llm框架
微软
微软、OpenAI大佬暗示LLM应用开发范式迁移:从Prompt Engineering到Flow Engineering
它的核心思路是,利用多次生成测试反馈迭代的方式替代原有精心
构
造Prompt一次性生成的方式,最终在验证集上,GPT-4的准确率(pass@5)从使用单个精心设计的Prompt的19%提高到使用
LLM
范式迁移
手把手!做Llama3的MoE专家混合模型!底层原理怎样的?做自己的MoE模型?需要多少算力?
专家混合是一种旨在提高效率和性能的架
构
!
MoE
专家混合模型
<
...
52
53
54
55
56
57
58
59
60
61
...
>
1
2
4
5
6
7
8
9
100