首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 大模型应用发展的方向|代理 Agent 的兴起及其未来(上)
· 划重点!全网最全AI数字人工具合集!
· 大模型推理能力增强方法总结
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· Kimichat炒股:7个提示词案例
· LLM每周速递!大模型最前沿:多模态RAG、RAG加速、大模型Agent、模型微调/对齐
· 字节开源项目MimicTalk:快速打造逼真3D Talking Face的利器
· 我们需要的不是智能体,而是工作流(5000字保姆式教学)
· 神奇的 OuteTTS - 0.1 - 350M:用几秒钟音频克隆声音的黑科技!
· 开源!数字人资源大集合!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
LLM
现在LLM 的大小为什都设计成6/7B、13B和130B几个档次?
130B貌似只有
GLM
大模型是这个参数。
大模型
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
ChatGLM-6B采用了与
GLM
-130B[
4
]相同的模型结构。
大模型
万字长文-大语言模型指令调优综述
4
.
大语言模型
大模型
大模型中的Top-k、Top-p、Temperature详细含义及解释
使用最大token集为
4
生成并按平均标记似然排序的输出为: Likelihood Text -0.96 a truly immersive experience -1.11
大模型
大模型
最强开源大模型Llama 3,在扎克伯格设想中其实是这样的
好吧,我不一定想等到 Llama
4
出现后才开始构建这些功能,所以让我们开始破解它。
Llama
3
大语言模型
超越Claude-2.1和GPT-3.5-Turbo,Qwen1.5还藏了哪些黑科技?32K Tokens上下文支持只是开胃菜!
虽然在对齐上暂时没追上GPT-
4
-Turbo,但别小看它!
Qwen1.5
开源模型
实测:本地跑llama3:70B需要什么配置
3 70B的能力通过测试结果的展示已经达到了一个全新的高度,甚至可以与Claude 3 Sonnet和Gemini 1.5 Pro等一众顶级模型相媲美,甚至在某些方面已经超过了去年发布的两款GPT-
4
。
llama
GPU内存
李彦宏偏爱小模型|AI光年
4
月16日,李彦宏在Create 2024百度AI开发者大会上分享了基于大模型开发AI原生应用的三个思路:&ensp
李彦宏
小模型
大模型
大模型实践总结
典型代表有:T5、BART、
GLM
等。
大模型
训练
目前大语言模型的评测基准有哪些?
该平台已提供了 30 多种能力、5 种任务和
4
大类指标,共 600 多个维度的全面评测,任务维度包括 22 个主客观评测数据集和 84433 道题目。
人工智能评测
大模型
Agent
AI Agent的千亿美金问题:如何重构10亿知识工作职业,掀起软件生产革命?
AI Agent 今年
4
月在开发者社区格外火热,AutoGPT 成为 Github 历史上涨星最快的项目。
大模型
AI编程
工具
20个常见AI绘画工具大汇总(含免费版哦~)
AI绘画通常利用深度学习算法、神经网络[1]和已有的数据集[2],如生成对抗网络(Generative Adversarial Networks,GANs)[3]和神经风格迁移[
4
]等技术,来学习和理解绘画的特征
文生图
开源
最新最全的开源中文大语言模型列表
github.com/THUDM/ChatGLM2-6B 简介:基于开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,引入了
GLM
大模型
大模型
投资人逃离大模型
旗下产品包括GPT-3.5、GPT-
4
、GPT-4o等。
大模型
ChatGLM
LangChain + ChatGLM2-6B 搭建私域专属知识库
ChatGLM2-6B 使用了
GLM
的混合目标函数,经过了 1.4T 中英标识符的预训练与人类偏好对齐训练,评测结果显示,相比于初代模型,ChatGLM2-6B 在 MMLU(
知识库
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100