AI魔法学院客服
训练魔法
AI国力战争:GPU是明线,HBM是暗线
本文指出,随着AI技术的迅猛发展,算力已成为国家竞争力的重要体现。当前,全球范围内在AI算力领域的竞争日趋激烈,大模型和GPU作为算力核心,备受关注。然而,在这场竞争中,HBM(高带宽内存)作为关键一环,却往往被忽视。 HBM是DRAM的一种升级产品,基于3D堆栈工艺,可以实现更高的内存带宽和更低的能耗,完美契合大模型对数据量和算力的近乎无上限需求。然而,HBM市场高度垄断,主要由韩国的海力士和三星主导,这使得其他国家在HBM供应上面临高风险。随着AI基础算力需求的大爆发,HBM供应紧张,价格高昂,成为制约AI算力进一步发展的瓶颈。 文章强调,从2024年起,HBM将继GPU之后成为各个国家在算力竞争的关键。目前,韩国在HBM领域遥遥领先,美国虽有独苗美光科技苦苦支撑,但与中国相比仍具优势。而中国在HBM产业链上的存在感尚弱,国内尚无法量产HBM,这成为国内自研AI芯片的重大隐忧。 为了突破这一困境,文章提出了两条投资逻辑:一是参与全球HBM产业链,选择能够参与到全球HBM供应链中的企业;二是相信国产化能够成功,选择可能在HBM封装上发挥作用的上市公司。然而,由于HBM技术难度高、投资金额大,且需要存储厂、晶圆代工厂、封装厂的通力合作,因此国产HBM的突破仍面临诸多挑战。 总的来说,本文深入剖析了HBM在AI算力竞争中的关键作用以及全球HBM市场的现状与挑战,强调了国产HBM突破的重要性和紧迫性,为相关企业和投资者提供了有价值的参考。
使用大模型自动回复小红书/抖音/快手评论:通过RAG 优化LLMs实现
本文介绍了使用检索增强生成(RAG)技术改进大型语言模型(LLM)性能的方法,特别是在YouTube自动评论回复中的应用。文章首先解释了LLM的作用,即取代人工进行降本增效,并以自动回复用户提问为例说明其应用场景。然而,LLM存在两个关键限制:静态的知识和对小众及专业信息理解不足,这可能导致对用户查询产生不良或虚构的模型响应。 为减轻这些限制,文章提出了RAG技术。RAG通过向基本LLM处理过程添加检索步骤,根据用户提示从外部知识库中提取相关信息并注入到提示中,从而增强LLM的性能。这种方法灵活且直接,可以改进基于LLM的系统。此外,由于知识存储在外部数据库中,更新系统知识也变得简单。 文章详细描述了RAG系统的两个关键要素:检索器和知识库。检索器接受用户提示并从知识库中返回相关项目,通常使用文本嵌入来表示和比较用户查询与知识库中每个项目的相似度。知识库则包含想要提供给LLM的所有信息,可以通过从一组文档中构建得到。 文章还讨论了构建RAG系统时的一些细微差别,如文档准备、选择合适的块大小以及改善搜索策略等。最后,文章提供了一个示例代码,展示了如何使用RAG技术改进YouTube评论回复程序,包括安装必要的Python库、建立知识库、设置检索器以及将RAG添加到LLM中。 通过比较无上下文和有上下文的模型响应,文章展示了RAG技术如何帮助LLM更准确地回答技术问题,并捕捉更丰富的解释。这一方法不仅提高了LLM的性能,也使其更适用于实际应用场景。
社区供稿|GPT-4 与国产模型,大!横!评!
本文测评了三款国产大模型——智谱GLM-4、文心一言4.0和字节的豆包,以GPT-4为基准,通过基础测试和应用实践两个环节来评估它们的性能。 在基础测试中,各模型在联网查询、数据分析、多模态文生图、长文档解读以及智能体等方面的表现各有千秋。智谱GLM-4在各项功能上表现稳定,与GPT-4的功能布局相似,但在智能体功能上稍逊于GPT-4。文心一言4.0在数据分析方面存在不足,但在高考数学大题等场景下表现出色。字节的豆包在语义理解和常识查询方面表现突出,但在其他功能上还有待提升。 在应用实践中,各模型在文本生成、语义理解、数理计算和代码解释等方面的表现也各具特色。智谱GLM-4在多个场景下表现稳定,尤其在数理计算和代码解释方面表现突出。文心一言4.0在高考数学大题上得分较高,但在代码解释方面表现不佳。字节的豆包在常识查询方面表现出色,但在其他场景下的表现平平。 此外,文章还对比了智谱GLM-4与其上一代模型GLM-3的性能差异,显示出GLM-4在各项基础模型能力上的全面强化和进步。 最后,文章指出,虽然ChatGPT等国外大模型在技术上具有优势,但在本地化表现上并不尽如人意,对于中文普通用户而言仍存在使用门槛。国产大模型在努力提升技术实力的同时,也需关注本地化需求和用户体验,以更好地满足国内用户的需求。