首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 大模型中的Top-k、Top-p、Temperature详细含义及解释
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 一文彻底搞懂多模态 - 多模态推理
· GLM-4-Voice 9B——实时多语言语音对话 AI——几分钟内即可在本地安装
· 国内法律类大模型介绍
· ChatGLM智谱清言
· ComfyUI学习笔记2,一文看透Workflow
· 还没有上手Stable Diffusion XL 1.0 的同学,看这篇文章就够了
· 50+ Midjourney 美食相关提示词,看了别留口水哦
· 字正腔圆,万国同音,coqui-ai TTS跨语种语音克隆,钢铁侠讲16国语言
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
ChatGLM
【本地部署】智谱chatglm3-6B第三代!性能如何?支持调用tools+Agent+代码执行!小白教程!附网盘下载!
是最底部的几行小字: 自2022年初,
GLM
系列模型已支持在昇腾、神威超算、海光 DCU 架构上进行大规模预训练和推理,当前已支持10余种国产硬件生态,包括昇腾、神威超算、海光DCU
chatglm
智普
大模型
OpenAI
被时代选中的智谱 AI:成为 OpenAI,超越 OpenAI
虽然在
GLM
模型的早期研发阶段,GPT-3 已经非常出色,但智谱 AI 选择从底层算法原理入手,将自己的理解融入进去,最终需要通过实验和应用来验证。
智谱
AI
清华
震撼科技界:清华大学与智谱AI联手,引领中文长文智能写作新纪元!
无论是开源模型如
GLM
-
4
-9B-Chat、Llama系列,还是商业模型如GPT-
4
、Claude 3.5 Sonnet,当文本生成需求超过2000字时,模型的表现都趋于平稳,难以突破这一界限。
写作
长文本
剪映专业版智能补帧
下面三郎老师从以下
4
点分别给大家介绍!
剪映
智能补帧
大模型
无需翻墙,可合法使用的8款国内AI大模型产品
据说是字节跳动自主研发,使用的是自己的云雀模型 有默认的角色模型,对用户端比较友好 3、智谱AI(
GLM
大模型) 主页网址:chatglm.cn 现在已经可以免费体验 「智谱清言」基于智谱
生成式AI
ChatGLM
手把手带你微调一个自己的 ChatGLM2-6B 模型
ChatGLM2-6B 使用了
GLM
的混合目标函数,经过了 1.4T 中英标识符的预训练与人类偏好对齐训练,评测结果显示,相比于初代模型,ChatGLM2-6B 在 MMLU(+23%)、
ChatGLM2-6B
LLM
现在LLM 的大小为什都设计成6/7B、13B和130B几个档次?
130B貌似只有
GLM
大模型是这个参数。
大模型
开源
9.4k Star!MemGPT:伯克利大学最新开源、将LLM作为操作系统、无限上下文记忆、服务化部署自定义Agent
MemGPT 允许你使用长期记忆和自定义工具构建 LLM Agent 最近有个新项目MemGPT,这个东西真的挺有意思,它可以让大型语言模型,比如让GPT-
4
这样的llm处理比原生更长的上下文窗口
MemGPT
大语言模型
大模型
从零开始学习大模型-第二章-大模型学习路线
随着技术的进步,大模型如OpenAI的GPT-
4
和Sora、Google的BERT和Gemini等已经展现出了惊人的能力-从理解和生成自然语言到创造逼真的图像及视频。
大模型
学习
大模型
九问中国大模型掌门人,万字长文详解大模型进度趋势
张鹏(
GLM
大模型): 我想换个角度来看这件事。
大模型
详解
懒人福音!用AI生成会议纪要,让你的工作更高效!
4
.
会议纪要
AI工具
万字长文-大语言模型指令调优综述
4
.
大语言模型
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
ChatGLM-6B采用了与
GLM
-130B[
4
]相同的模型结构。
大模型
大模型
大模型中的Top-k、Top-p、Temperature详细含义及解释
使用最大token集为
4
生成并按平均标记似然排序的输出为: Likelihood Text -0.96 a truly immersive experience -1.11
大模型
大模型
最强开源大模型Llama 3,在扎克伯格设想中其实是这样的
好吧,我不一定想等到 Llama
4
出现后才开始构建这些功能,所以让我们开始破解它。
Llama
3
大语言模型
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100