美高梅MGM·(中国)唯一官方网站

走进美高梅(MGM)游戏 产品介绍 应用领域 喷涂材质 涂料种类 产品特点 CSR报告 澳门mgm美高梅 新闻资讯 公司新闻 行业新闻 涂料讲堂 涂料OEM 美高梅MGM·(中国)唯一官方网站 连络咨询
banner1
banner1
banner1

美高梅·MGM(中国)平台网站入口中信建投:AI算力产|相约同城|业链投资前景

2025-08-22
美高梅官网涂料

  算力链公司发布业绩预告ღღ★,实现快速增长ღღ★,持续验证AI带动的算力行业景气度依然较高ღღ★。当前位置ღღ★,我们认为AI大模型的竞争与迭代仍在持续ღღ★,意味着算力投资大概率依然维持较高强度ღღ★,因此继续推荐算力板块ღღ★:一是业绩持续高增长且估值仍处于历史较低水平的北美算力链核心标的ღღ★;二是有望享受外溢需求ღღ★、取得客户或份额突破的公司ღღ★;三是上游紧缺的环节ღღ★;四是随着GB300的批量出货ღღ★,建议重点关注 1.6T光模块及CPO产业链ღღ★;五是随着H20供应恢复ღღ★、NV将向中国推出全新GPU等ღღ★,建议关注国产算力链ღღ★。

  人工智能2025中期投资策略报告ღღ★:推理走向舞台中央ღღ★,自主可控大势所趋ღღ★,Agent及多模态加速

  随着各方面应用的加速ღღ★,AI算力消耗开始从训练走向推理ღღ★,同时主权AI加大投入ღღ★,带来显著的算力增量ღღ★。探究背后增量需求主要来自四方面ღღ★:

  一是各家互联网大厂纷纷加速AI与原有业务结合ღღ★,如谷歌搜索在今年5月21日正式迎来 AI 模式ღღ★,并逐步在美国市场推出ღღ★,考虑到谷歌搜索全球范围内年搜索量为5万亿次+ღღ★,假设单次回答平均为2000tokenღღ★,则该功能都将带来日均27万亿token消耗(超过其Gemini模型目前日均16万亿token消耗)ღღ★,类似案例如抖音搜索ღღ★、微博AI智搜ღღ★,搜索功能开始从普通服务器迁移到AI服务器并重塑所有搜索体验ღღ★,类似的视频编辑ღღ★、剪辑功能也被AI重塑ღღ★;

  二是Agent和深度思考推理的结合ღღ★,通过两者结合ღღ★,Agent执行任务准确率大幅提高ღღ★,Agent执行一次任务平均消耗token达到10万的量级ღღ★,大幅超过AI搜索单次问答token消耗ღღ★,并且能延伸到更多开放式场景ღღ★,同时多Agent协作的群体智能也已开始逐步商用化ღღ★,过去复杂ღღ★、多步骤的任务可通过Agent实现ღღ★,Agent的普及将带来推理算力需求的大幅增长ღღ★;

  三是多模态美高梅·MGM(中国)平台网站入口ღღ★,随着多模态生成的图片及视频质量今年均显著提升ღღ★,今年AI营销内容占比提升十分明显ღღ★,根据《2025中国广告主营销趋势调查报告》显示“超过50%的广告主ღღ★,已经在生成创意内容时使用AIGCღღ★,并且AI营销内容占比超过10%”ღღ★,而一分钟视频的生成token消耗基本在10万token至百万token量级ღღ★,目前多模态模型开始步入快速商业化阶段ღღ★,如快手可灵四五月连续两月付费金额超过1亿ღღ★,多模态的加速渗透带来明显的算力需求提升ღღ★。

  四是主权AIღღ★,科研和军事领域是关键ღღ★,随之扩展到其他各行业的效率提升ღღ★,典型代表为美国重点推进其“星际之门”计划ღღ★。与之而来的是各国政府也纷纷开启主权AI的投资计划ღღ★,尤其是以欧洲ღღ★、中东ღღ★、日本等国为代表ღღ★,投资体量超过3000亿美金ღღ★。

  算力方面从投资角度来看ღღ★,一是随着推理占比的提升ღღ★,云计算厂商投入产出比逐渐清晰ღღ★,并且超卖率有望继续提升ღღ★,从而带动利润率提升ღღ★;二是围绕机柜增量变化及新技术投资ღღ★,25年下半年核心是英伟达NVL72机柜上量ღღ★,其中液冷散热ღღ★、铜连接ღღ★、电源变化最大ღღ★:三是围绕估值性价比ღღ★、景气度投资ღღ★,重视PCBღღ★、光模块等供应链ღღ★。

  1)散热方面ღღ★:散热方面将是AI算力领域未来几年核心技术升级方向之一ღღ★,英伟达单卡功耗从700瓦到1200ღღ★、1400瓦ღღ★,未来有望迭代至2000瓦+ღღ★,并且大机柜ღღ★、超节点的出现ღღ★,热源的叠加使得散热难度进一步提升ღღ★,因此散热成为了接下来持续迭代升级的方向ღღ★。其次ღღ★,目前供应商以台系ღღ★、美系厂为主ღღ★,如Coolermasterღღ★、AVCღღ★、BOYD及台达等ღღ★,中国大陆供应商比例较低ღღ★,随着液冷散热从研发走向大规模量产ღღ★,中国大陆公司扩产能力更具优势ღღ★,我们认为液冷散热领域一系列部件会有更多中国大陆供应商进入到全球供应体系ღღ★。

  2)铜链接ღღ★:铜线在短距数据传输的成熟度更高且448G等新技术路线逐步面世ღღ★,今年扩产最快的公司将充分享受从Blackwell到Rubin所带来的高速连接需求增长ღღ★。

  3)电源领域ღღ★:高功率带动单W价值提升ღღ★。PSU是服务器电源进行AC-DC转换的核心ღღ★,随着单体功率密度的提升ღღ★,单W价格也在提升ღღ★,呈现量价齐升局面ღღ★。新一代GB300等GPU方案中ღღ★,BBUღღ★、CBU逐步成为标配ღღ★,能够解决负载波动率大的供电稳定ღღ★、电压稳定问题ღღ★。目前5.5 KW电源已进入量产阶段ღღ★,后续伴随2026 下半年800 V HVDC 数据中心电力基础设施及 1 MW IT 机架逐步落地ღღ★,电源将持续升级ღღ★。随着功率密度要求的提升ღღ★,UPS目前正在由600kW级向MW级迈进ღღ★,以应对越来越大的功率密度需求ღღ★,未来AIDC有望全面切换到HVDC为代表的全直流供电方案ღღ★,电压等级也提升至800Vღღ★。巴拿马电源等集成化ღღ★、模块化产品逐步成为大厂青睐的主流ღღ★,更先进的固态变压器(SST)也已开始研发和测试ღღ★。

  4)PCBღღ★:亚马逊ღღ★、METAღღ★、谷歌等自研芯片设计能力弱于英伟达ღღ★,因此对PCB等材料要求更高ღღ★,价值量更有弹性ღღ★。随着短距离数据传输要求不断提高ღღ★,PCB持续升级ღღ★,并带动产业链上游升级ღღ★,覆铜板从M6/M7升级到M8/M9ღღ★。伴随国内PCB公司在全球份额持续提升ღღ★,并带动上游产业链国产化ღღ★,从覆铜板出发ღღ★,并带动上游高端树脂ღღ★、玻纤布ღღ★、铜箔等国内份额进一步提升ღღ★。

  5)光模块ღღ★:除了GPU等算力硬件需求强劲ღღ★,也催生了网络端更大带宽需求ღღ★。优秀的网络性能可以提升计算效率ღღ★,显著提升算力水平ღღ★。相较于传统的云计算网络ღღ★,AI训练组网由叶脊架构向胖树架构转变ღღ★,交换机和光模块数量大幅提升ღღ★,且随着通信数据量的增加ღღ★,对光模块的速率要求也更高ღღ★。800G光模块2023年开始放量ღღ★,2024-2026年都保持高速增长ღღ★;1.6T光模块2025年开始出货ღღ★,2026年有望放量ღღ★,整个光模块产业链迎来量价齐升的景气周期ღღ★。从竞争格局看ღღ★,国内光模块巨头经历了一轮又一轮的竞争ღღ★,与北美的云厂商深度绑定ღღ★,占据了全球光模块市场的主要份额ღღ★。从未来技术趋势演进看ღღ★,我们建议关注硅光与CPO(共封装光学)ღღ★。

  6)先进封装ღღ★、HBMღღ★:为了解决先进制程成本快速提升和“内存墙”等问题ღღ★,Chiplet设计+异构先进封装成为性能与成本平衡的最佳方案ღღ★,台积电开发的CoWoS封装技术可以实现计算核心与HBM通过2.5D封装互连ღღ★,因此英伟达A100ღღ★、H100等AI芯片纷纷采用台积电CoWos封装ღღ★,并分别配备40GB HBM2Eღღ★、80GB的HBM3内存ღღ★。全球晶圆代工龙头台积电打造全球2.5D/3D先进封装工艺标杆ღღ★,未来几年封装市场增长主要受益于先进封装的扩产ღღ★。先进封装市场的快速增长ღღ★,有望成为国内晶圆代工厂商与封测厂商的新一轮成长驱动力ღღ★。

  7)国内算力链ღღ★:一方面来自于美国BIS政策的持续收紧ღღ★,中期维度看ღღ★,国产芯片占比提升是必然趋势ღღ★。考虑到国产芯片逐渐进入量产交付阶段ღღ★,预期市场集中度将看到显著提升相约同城ღღ★。另一方面随着国内算力消耗快速增长(典型如字节跳动ღღ★,每三个月token消耗接近翻一倍ღღ★,5月底为16.4万亿token)ღღ★,我们预计国内各家大型云厂商在日均token消耗达到30万亿token时会感受到算力紧张ღღ★,在达到60万亿token时会开始出现一定算力缺口ღღ★。我们认为国内增速斜率更陡峭ღღ★,国产芯片今年将迎来发展大年ღღ★。

  2025年8月8日ღღ★,GPT-5正式发布ღღ★,包含GPT-5ღღ★、GPT-5-Miniღღ★、GPT-5-Nano三个版本ღღ★。GPT-5在数学ღღ★、编程ღღ★、视觉理解和健康领域表现突出ღღ★,在数学AIME 2025(无工具)测试得分 94.6%ღღ★、真实世界编码SWE-bench Verified得分 74.9%ღღ★、多模态理解MMMU 得分 84.2%ღღ★,健康HealthBench Hard 得分 46.2%ღღ★,在各方面均位居前列ღღ★。值得一提的是ღღ★,GPT-5幻觉显著降低ღღ★。在启用网页搜索时ღღ★,GPT-5响应的事实错误率较GPT-4o降低约45%ღღ★;深度思考模式下ღღ★,错误率较OpenAI o3降低近80%ღღ★。token定价方面ღღ★,GPT-5为每百万输入token 1.25美元ღღ★,每百万输出token 10美元ღღ★,Mini和Nano则为GPT-5的1/5和1/25ღღ★。随着近期Grok4ღღ★、Genie3的陆续发布ღღ★,大模型迭代提速ღღ★,且准确率提升ღღ★、成本降低ღღ★,预计将加速AI应用的爆发ღღ★,商业化也有望提速ღღ★,帮助互联网大厂形成AI投入到商业变现的闭环ღღ★,我们建议持续关注算力基础设施与AI应用等环节ღღ★。

  算力基础设施产业链我们认为北美链和国产连都值得关注ღღ★。前期ღღ★,受到供应链影响ღღ★,国内AI算力基础设施投资节奏受到一定影响ღღ★,但我们认为国内的需求依然旺盛ღღ★,只是短期节奏受到一些干扰ღღ★,但后续随着算力缺口的出现及扩大ღღ★,国内的部署节奏有望恢复ღღ★、甚至提速ღღ★,建议择机布局IDCღღ★、液冷ღღ★、光模块ღღ★、交换机等板块ღღ★。

  在人工智能行业不断取得进展ღღ★,以及相关产业链上市公司业绩预告表现亮眼的共同驱动下ღღ★,通信指数上涨7.56%ღღ★,在申万31个一级行业中排名第1ღღ★。扎克伯格在表示ღღ★,Meta将投资数千亿美元建设几座大型数据中心ღღ★,用于支持其人工智能的发展ღღ★,目标是实现通用人工智能ღღ★,其中首个数据中心预计将于明年投入使用ღღ★。7月18日ღღ★,OpenAI宣布将在ChatGPT中推出一款通用型AI智能体ღღ★,该公司表示该智能体可以帮助用户完成各种基于计算机的任务ღღ★。此外ღღ★,根据英伟达官网消息显示ღღ★,英伟达将恢复向中国销售H20ღღ★,并宣布推出一款全新ღღ★、完全合规的面向中国的GPUღღ★,美国政府已明确表示将批准相关许可ღღ★,预计不久后即可启动交付ღღ★。

  算力链公司发布业绩预告ღღ★,实现快速增长ღღ★,持续验证AI带动的算力行业景气度依然较高ღღ★。当前位置ღღ★,我们认为AI大模型的竞争与迭代仍在持续ღღ★,意味着算力投资大概率依然维持较高强度ღღ★,因此继续推荐算力板块ღღ★:一是业绩持续高增长且估值仍处于历史较低水平的北美算力链核心标的ღღ★;二是有望享受外溢需求ღღ★、取得客户或份额突破的公司ღღ★;三是上游紧缺的环节ღღ★;四是随着GB300的批量出货ღღ★,建议重点关注 1.6T光模块及CPO产业链ღღ★;五是随着H20供应恢复ღღ★、NV将向中国推出全新GPU等ღღ★,建议关注国产算力链ღღ★。

  我们认为随着大模型的不断迭代ღღ★,产业将向通用人工智能方向发展ღღ★,AI应用仍值得期待ღღ★,叠加宇树IPOღღ★,建议关注AI端侧的芯片ღღ★、模组等产业链ღღ★。此外ღღ★,我们仍继续推荐电信运营商ღღ★、军工通信等板块ღღ★。

  7月10日ღღ★,xAI正式发布Grok 4ღღ★,在GBQA(博士级问题集)ღღ★、AMC 25(美国数学邀请赛)ღღ★、Live Coding Benchmark(编程能力测试)ღღ★、HMMT(哈佛-MIT数学竞赛)ღღ★、USAMO(美国数学奥林匹克)等测试中均表现出色ღღ★。马斯克表示ღღ★,“现在在学术问题上ღღ★,Grok 4比博士水平在每个学科都要强ღღ★,没有例外ღღ★。”定价方面ღღ★,Grok 4基础版本为30美金一个月ღღ★;Grok 4Heavy为300美金/月ღღ★。后续产品路线月将发布专门编程模型ღღ★;9月发布多模态智能体ღღ★;10月发布视频生成模型ღღ★。

  Grok4 在性能上的强势提升与模型版本的快速迭代ღღ★,这背后离不开强大的算力支撑ღღ★,xAI在美国田纳西州孟菲斯建立了超级计算中心“Colossus”ღღ★,2024年7月启动时配备了10万块英伟达H100 GPUღღ★,到2025年2月ღღ★,GPU数量已翻倍至20万块ღღ★。Grok4用于RL的计算资源几乎与预训练时使用的相同ღღ★。

  当前位置ღღ★,我们认为AI大模型的竞争与迭代仍在持续ღღ★,意味着算力投资大概率依然维持较高强度ღღ★,因此继续推荐算力板块ღღ★:一是业绩持续高增长且估值仍处于历史较低水平的北美算力链核心标的ღღ★;二是有望享受外溢需求ღღ★、取得客户或份额突破的公司ღღ★;三是上游紧缺的环节ღღ★;四是随着GB300的批量出货ღღ★,建议重点关注 1.6T光模块及 CPO 产业链ღღ★。

  近期ღღ★,算力板块表现出色ღღ★。虽然经历了年初deepseek出圈ღღ★,以及关税政策调整带来的两波较大的股价调整ღღ★,但是随着海外CSP厂商capex的乐观指引ღღ★,大模型及各种Agent带来tokens爆发式增长ღღ★,OpenAI和Anthropic等公司的ARR大幅提升ღღ★,市场对于未来AI算力投资的信心不断增强ღღ★。

  小米AI眼镜发布ღღ★,重量40gღღ★,续航达8.6小时ღღ★,价格为国补后1699元起ღღ★,同时推出单色/彩色电致变色的选配版本ღღ★。小米AI眼镜作为其随身AI接口ღღ★,支持口令ღღ★、多模态ღღ★、扫码支付ღღ★、语音控制和会议纪要等多种功能ღღ★,是未来重要的端侧AI产品之一ღღ★。建议继续重视智能眼镜供应链ღღ★,包括整机ღღ★、代工ღღ★、软件与算法环节相关标的ღღ★。

  工信部披露运营商今年1-5月电信业务收入ღღ★,同比增长1.4%ღღ★,1-3月同比增速为0.7%ღღ★,1-4月同比增速为1%ღღ★,意味着4月和5月电信业务收入增速持续提升ღღ★,分别达到2.0%和2.7%ღღ★。我们持续推荐运营商ღღ★。

  英伟达召开2025年度股东大会ღღ★,机器人融合人工智能打造新万亿级市场空间ღღ★。英伟达于美国当地时间6月25日召开股东大会ღღ★,CEO黄仁勋宣布将机器人列为仅次于AI计算的公司第二大增长引擎ღღ★,目标通过融合AI与机器人技术开辟“物理世界AI”新万亿级市场ღღ★。为实现这一愿景ღღ★,英伟达构建了全栈式技术壁垒ღღ★:硬件层推出新一代机器人芯片 Thor SoCღღ★,兼容工业机械臂与自动驾驶车辆ღღ★;软件层依托 Isaac Robotics平台整合GR00T人形机器人基础模型ღღ★,支持多模态感知与物理仿真ღღ★。无论自动驾驶还是更广阔的机器人应用ღღ★,其训练软件都将依托于英伟达强大的数据中心芯片ღღ★,端侧应用设备则采用其他专业芯片支持运行ღღ★。展望未来ღღ★,英伟达将由芯片供应商向“AI基础设施”平台商转型ღღ★,搭建AI工厂进而成为AI产业的核心基础架构ღღ★。当前机器人和汽车业务占英伟达整体收入比例约1%ღღ★,但人工智能结合机器人ღღ★、自动驾驶将发展成为万亿美元级别的增量市场空间ღღ★。

  全球Token消耗量呈现爆发式增长ღღ★,免费AI服务的规模化普及成为核心引擎ღღ★。谷歌将AI能力融合到搜索场景中ღღ★,AI Overviews功能推动其2025年4月推理Token消耗量飙升至480万亿/月ღღ★,较2024年同期的9.7万亿激增50倍ღღ★。这一增长直接受益于其覆盖45亿用户的免费服务生态ღღ★;中国市场的C端应用同样爆发ღღ★,字节跳动豆包大模型日均Token调用量从2024年12月的4万亿跃升至2025年5月的16.4万亿ღღ★,其中超60%消耗量来自抖音ღღ★、今日头条的AIGC营销内容生成ღღ★。与此同时ღღ★,企业级Agent任务复杂度升级大幅推高单次消耗量ღღ★:企业端单Agent解决供应链ღღ★、财务等场景对于tokens消耗量达到十万数量级ღღ★,针对复杂场景或多Agent协同则可能突破百万级别ღღ★,较传统问答tokens消耗增长约2个数量级ღღ★。当前海内外头部厂商持续发力算力基础设施建设ღღ★,以满足激增的推理算力需求ღღ★。

  ASIC市场空间预期持续上调ღღ★,助力各大云厂商自研AI芯片以满足激增算力需求ღღ★。全球ASIC市场空间预期持续上调ღღ★,核心驱动力源于云计算巨头为满足激增的AI算力需求而加速自研芯片部署ღღ★。Marvell 在投资者交流会中提及其为微软Azure定制的ASIC芯片单token成本较GPU方案显著降低ღღ★,同时解决了英伟达芯片供给缺口ღღ★。Marvell为AWSღღ★、微软ღღ★、谷歌ღღ★、Meta等提供底层算力支持ღღ★,得益于上述云厂商强劲的算力需求ღღ★,Marvell预计2028年数据中心资本开支将超过一万亿美元ღღ★,同时进一步上调数据中心市场规模2028年预期至940亿美元ღღ★,较2024年4月的预期750亿美元上调26%ღღ★,其中上调定制计算芯片(XPU和XPU配套芯片)市场规模指引37%ღღ★。Marvell的竞争对手博通同样发力ASIC市场ღღ★,博通CEO在业绩说明会上表示ღღ★,2025财年第二季度博通人工智能收入超44亿美元ღღ★,预计人工智能半导体收入将在第三季度增长至51亿美元ღღ★,实现连续十个季度的增长ღღ★,明年XPU部署将显著增加ღღ★,超出公司此前预期ღღ★。

  6月20日ღღ★,在2025华为开发者大会(HDC 2025)上ღღ★,华为云正式发布盘古大模型5.5及新一代昇腾AI云服务ღღ★,实现AI基础设施与大模型技术的协同突破ღღ★。本次升级覆盖自然语言处理(NLP)ღღ★、多模态ღღ★、预测ღღ★、科学计算及计算机视觉(CV)五大领域相约同城ღღ★,通过架构创新显著提升性能与能效ღღ★,并深化工业ღღ★、气象ღღ★、能源等场景应用ღღ★,加速产业智能化转型ღღ★。

  面对大模型训练与推理引发的算力需求指数级增长ღღ★,传统计算架构已触及性能瓶颈ღღ★。华为云此次发布的昇腾AI云服务ღღ★,通过CloudMatrix384超节点架构实现基础层突破ღღ★:该架构创新性地将384颗昇腾NPU与192颗鲲鹏CPU经由全对等互联的MatrixLink高速网络整合为高密度异构计算单元ღღ★,形成具备超域并行能力的AI算力基座ღღ★。关键性能指标实现代际跨越——单卡推理吞吐量提升至2300 Token/sღღ★,较传统架构相比提升近4倍ღღ★,彻底释放大模型推理效能ღღ★。

  在架构设计上ღღ★,超节点针对混合专家模型(MoE) 的稀疏计算特性进行深度优化ღღ★:1)首创 “一卡一专家”并行范式 ღღ★,单节点即可承载384个专家模块的协同推理ღღ★,显著降低通信开销ღღ★;2)支持“算子级任务编排”ღღ★,通过动态资源切片实现“一卡多任务”并发处理ღღ★,使算力有效利用率(MFU)提升超50%ღღ★,从根本上解决传统架构的算力闲置问题ღღ★。

  对于十万亿参数级别的训练场景ღღ★,系统支持级联弹性扩展——通过432个超节点构建16万卡级算力集群ღღ★,并创新性地实现训推一体化调度ღღ★:采用 “日推夜训”动态资源池 策略ღღ★,依据负载峰谷智能调配算力ღღ★,在保障日间高并发推理需求的同时ღღ★,利用闲置资源进行夜间模型训练ღღ★。

  此次ღღ★,盘古 5.5 在 NLP 领域主要有三大模型组成ღღ★,即盘古 Ultra MoEღღ★、盘古 Pro MoEღღ★、盘古 Embeddingღღ★;以及快慢思考合一的高效推理策略ღღ★、智能体产品DeepDiverღღ★。

  Ultra MoE(7180亿参数) 作为准万亿级深度思考模型ღღ★,基于昇腾全栈软硬件协同优化ღღ★,首创 Depth-Scaled Sandwich-Norm(DSSN)稳定架构 与 TinyInit小初始化技术 ღღ★,在CloudMatrix384集群上完成10+T token数据的稳定训练ღღ★。其创新性 EP Group Loss负载均衡机制ღღ★,保障256个专家模块高效协同ღღ★,结合 “MLA多层级注意力”“MTP混合精度训练”策略ღღ★,在知识推理ღღ★、数学计算等任务中达到国际前沿水平ღღ★。

  Pro MoE(72B A16B) 专为昇腾硬件定制ღღ★,通过分组混合专家算法(MoGE) 解决跨芯片负载不均衡问题ღღ★。该模型针对300I Duo推理芯片优化架构拓扑ღღ★,每次仅激活160亿参数(16B)ღღ★,在800I A2芯片实现 1529 Token/s 的极致吞吐效率ღღ★,较同规模模型提升15%以上ღღ★。SuperCLUE榜单验证其智能体任务能力比肩6710亿参数模型ღღ★,成为商业落地最优解ღღ★。

  Embedding(7B) 轻量化模型突破规模限制ღღ★,采用“渐进式SFT微调”与 “多维度强化学习 ”策略ღღ★,模型在学科知识ღღ★、编码ღღ★、数学和对话能力方面均优于同期同规模模型ღღ★,为边缘端部署提供高性价比解决方案ღღ★。

  同时ღღ★,华为提出了自适应快慢思考合一的高效推理方案ღღ★,构建难度感知的快慢思考数据并提出两阶段渐进训练策略ღღ★,让盘古模型可以根据问题难易程度自适应地切换快慢思考ღღ★。通过构建包含200万样本的难度感知数据集形成动态感知机制ღღ★,基于问题复杂度分级标注ღღ★,训练轻量级判别模块实现毫秒级难度判定ღღ★,通过系统级训练框架实现模型内生决策能力ღღ★,打破“人工规则切换”局限ღღ★。

  华为推出的DeepDiver智能体通过强化学习框架重构开放域信息获取路径ღღ★,基于7B轻量模型实现千亿级复杂任务处理能力ღღ★。该产品构建百万级合成交互数据集模拟真实搜索环境ღღ★,采用渐进式奖励策略优化多跳推理能力ღღ★,深度融合知识边界判定与结构化验证机制ღღ★,突破传统引擎的关键信息遗漏瓶颈ღღ★;技术实现上通过延时敏感型调度器协调128节点昇腾集群ღღ★,结合主机-设备自适应权重迁移技术消除数据传输延迟ღღ★,使单次任务可完成10跳深度推理链挖掘ღღ★。目前已在投研智库ღღ★、专利预警ღღ★、医疗证据链分析等场景验证其颠覆性价值ღღ★,推动AI智能体从工具执行向战略决策角色演进ღღ★。

  盘古预测模型采用业界首创的triplet transformer统一预训练架构ღღ★,将不同行业的数据ღღ★,包括工艺参数的表格数据ღღ★,设备运行日志的时间序列数据ღღ★,产品检测的图片数据进行统一的三元组编码ღღ★,并在同一框架内高效处理和预训练ღღ★,极大地提升预测大模型的精度ღღ★,并大幅提升跨行业ღღ★、跨场景的泛化性ღღ★。助力宝武钢铁高炉出铁温度合格率突破90%ღღ★,云南铝业电解铝工艺年省电2600万度ღღ★。

  CV视觉模型以300亿MoE架构构建跨模态工业样本库ღღ★,全面支持图像ღღ★、红外ღღ★、激光点云ღღ★、光谱ღღ★、雷达等多维度ღღ★、泛视觉的感知ღღ★、分析与决策ღღ★。另外ღღ★,盘古CV大模型通过跨维度生成模型ღღ★,构建油气ღღ★、交通ღღ★、煤矿等工业场景稀缺的泛视觉故障样本库ღღ★,极大地提升了业务场景的可识别种类与精度ღღ★。推动中石油亚毫米级缺陷识别效率提升40%ღღ★。

  科学计算模型在气象领域支撑深圳“智霁”实现区域集合预报ღღ★,重庆“天资·12h”模型提升强降水预警精度ღღ★,深圳能源风光发电预测优化清洁能源消纳效率ღღ★。

  盘古大模型持续深耕行业ღღ★,已在30多个行业ღღ★、500多个场景中落地ღღ★,在政务ღღ★、金融ღღ★、制造ღღ★、医疗ღღ★、煤矿ღღ★、钢铁ღღ★、铁路ღღ★、自动驾驶ღღ★、气象等领域发挥巨大价值ღღ★,实现产业智能化转型ღღ★。

  Deepseek发布深度推理能力模型ღღ★。R1-Zero采用纯粹的强化学习训练ღღ★,证明了大语言模型仅通过强化学习也可以有强大的推理能力ღღ★,DeepSeek-R1经历微调和强化学习取得了与OpenAI-o1-1217相媲美甚至超越的成绩ღღ★。DeepSeek R1训练和推理算力需求较低ღღ★,主要原因是DeepSeek R1实现算法ღღ★、框架和硬件的优化协同ღღ★。过去的预训练侧的scaling law正逐步迈向更广阔的空间ღღ★,在深度推理的阶段ღღ★,模型的未来算力需求依然会呈现爆发式上涨ღღ★,充足的算力需求对于人工智能模型的性能进步依然至关重要ღღ★。

  Deepseek发布深度推理能力模型ღღ★,性能和成本方面表现出色ღღ★。Deepseek发布两款具备深度推理能力的大模型R1-Zero和DeepSeek-R1ღღ★。R1-Zero采用纯粹的强化学习训练ღღ★,模型效果逼近OpenAI o1模型ღღ★,证明了大语言模型仅通过RLღღ★,无SFTღღ★,大模型也可以有强大的推理能力ღღ★。但是R1-Zero也存在可读性差和语言混合的问题ღღ★,在进一步的优化过程中ღღ★,DeepSeek-V3-Base经历两次微调和两次强化学习得到R1模型ღღ★,主要包括冷启动阶段ღღ★、面向推理的强化学习ღღ★、拒绝采样与监督微调ღღ★、面向全场景的强化学习四个阶段ღღ★,R1在推理任务上表现出色ღღ★,特别是在AIME 2024ღღ★、MATH-500和Codeforces等任务上ღღ★,取得了与OpenAI-o1-1217相媲美甚至超越的成绩ღღ★。

  国产模型迈向深度推理ღღ★,策略创新百花齐放ღღ★。在Deepseek R1-Zero模型中ღღ★,采用的强化学习策略是GRPO策略ღღ★,取消价值网络ღღ★,采用分组相对奖励ღღ★,专门优化数学推理任务ღღ★,减少计算资源消耗ღღ★;KIMI 1.5采用Partial rollout的强化学习策略ღღ★,同时采用模型合并ღღ★、最短拒绝采样ღღ★、DPO 和long2short RL策略实现短链推理ღღ★;Qwen2.5扩大监督微调数据范围以及两阶段强化学习ღღ★,增强模型处理能力ღღ★。

  DeepSeek R1通过较少算力实现高性能模型表现ღღ★,主要原因是DeepSeek R1实现算法ღღ★、框架和硬件的优化协同ღღ★。DeepSeek R1在诸多维度上进行了大量优化ღღ★,算法层面引入专家混合模型ღღ★、多头隐式注意力ღღ★、多token预测ღღ★,框架层面实现FP8混合精度训练ღღ★,硬件层面采用优化的流水线并行策略ღღ★,同时高效配置专家分发与跨节点通信ღღ★,实现最优效率配置ღღ★。当前阶段大模型行业正处于从传统的生成式模型向深度推理模型过渡阶段ღღ★,算力的整体需求也从预训练阶段逐步过渡向后训练和推理侧ღღ★,通过大量协同优化ღღ★,DeepSeek R1在特定发展阶段通过较少算力实现高性能模型表现ღღ★,算力行业的长期增长逻辑并未受到挑战ღღ★。过去的预训练侧的scaling law正逐步迈向更广阔的空间ღღ★,在深度推理的阶段ღღ★,模型的未来算力需求依然会呈现爆发式上涨ღღ★,充足的算力需求对于人工智能模型的性能进步依然至关重要ღღ★。

  北美四大云厂商一季度资本开支持续高增ღღ★,总计773亿美元ღღ★,同比增长62%ღღ★。其中ღღ★,2025Q1亚马逊的capex为250亿美元ღღ★,同比增长68%ღღ★,微软的capex为214亿美元ღღ★,同比增长53%ღღ★,谷歌的capex为172亿美元ღღ★,同比增长43%ღღ★,Meta的capex为137亿美元ღღ★,同比增长104%ღღ★。四家云厂商对于2025年资本开支的指引保持乐观ღღ★,谷歌ღღ★、亚马逊ღღ★、微软表示年初资本开支指引保持不变ღღ★,Meta将全年资本开支由上季度指引的600亿-650亿美元上调至640亿-720亿美元ღღ★。市场此前在DeepSeek出圈后认为算力可能加速通缩ღღ★,资本开支可能会趋缓ღღ★,但从北美云厂商的最新指引来看ღღ★,投资依然强劲ღღ★,反映出北美算力行业景气度依旧很高ღღ★。

  国内CSP厂商季度间资本开支略有波动ღღ★,但保持较高投资强度ღღ★。2025Q1ღღ★,阿里的资本开支为239.93亿元(Purchase of property and equipment)ღღ★,同比增长136%ღღ★。相较于此前年报时的指引ღღ★,2025Q1资本开支或低于投资者预期ღღ★,预计与GPU芯片采购发货节奏有关ღღ★;腾讯的资本开支为275亿元ღღ★,同比增长91%ღღ★,占营收比为15%ღღ★,落在此前“low teens”指引区间ღღ★。当前仍处于AI基础设施的投资期ღღ★,尽管季度间资本开支或许有波动ღღ★,但整体仍保持较高的投资强度ღღ★,反映出国内算力投资需求也保持较高景气度ღღ★。

  随着大模型应用的普及和用户互动频率的增加ღღ★,LLM的Token使用量正在以惊人的速度增长ღღ★。在近期举行的2025年Google I/O开发者大会上ღღ★,谷歌表示目前系统每月处理的token数量激增ღღ★,从去年的9.7万亿增加到现在的480万亿ღღ★,增长将近50倍ღღ★。目前ღღ★,Gemini的App上每月有4 亿多活跃用户ღღ★。近期在字节跳动旗下火山引擎举办 Force 原动力大会上ღღ★,公司宣布ღღ★,截至2025年5月底美高梅·MGM(中国)平台网站入口ღღ★,豆包大模型日均tokens使用量超过16.4万亿ღღ★,较去年5月刚发布时增长137倍ღღ★。Agent在解决复杂问题的过程中ღღ★,会进行多轮对话或内部思考ღღ★,每一轮的对话中都会产生大量的tokenღღ★。随着Agent在各种应用场景的快速普及ღღ★,token数量还有望快速增长ღღ★。

  但市场对于当下AI发展的短期情况存在一定的担忧ღღ★。自从2023年OpenAI的ChatGPT引爆了算力需求之后ღღ★,CSP厂商的capex高速增长已有3年ღღ★,但是AI相关的爆款应用迟迟没有出现ღღ★,在无法商业闭环情况下ღღ★,实际上也存在资本开支放缓可能ღღ★。但是从长期发展的维度看ღღ★,AI仍然会是整个科技行业最大的发展方向之一ღღ★。总体来看ღღ★,我们认为应先抱以乐观态度ღღ★,但紧盯微观层面的订单变化ღღ★,及时调整ღღ★。因此ღღ★,从投资的角度来看ღღ★,我们认为应该重点锚定行业景气度变化和估值水平进行投资ღღ★,海外产业链更看重景气度变化ღღ★,估值水平在一定条件下可以提供安全边际ღღ★,而国内算力产业链短期内则更需要重视业绩的兑现情况ღღ★。

  从2023年OpenAI的ChatGPT横空出世以来ღღ★,人工智能带动的需求持续高速增长ღღ★。CSP厂商的capex保持快速增长势头ღღ★,GPUღღ★、ASICღღ★、HBMღღ★、交换机ღღ★、光模块ღღ★、铜缆等需求旺盛ღღ★。

  北美四大云厂商一季度资本开支持续高增ღღ★,总计773亿美元ღღ★,同比增长62%ღღ★。其中ღღ★,2025Q1亚马逊的capex为250亿美元ღღ★,同比增长68%ღღ★,微软的capex为214亿美元ღღ★,同比增长53%ღღ★,谷歌的capex为172亿美元ღღ★,同比增长43%ღღ★,Meta的capex为137亿美元ღღ★,同比增长104%ღღ★。四家云厂商对于2025年资本开支的指引保持乐观ღღ★,谷歌ღღ★、亚马逊ღღ★、微软表示年初资本开支指引保持不变ღღ★,Meta将全年资本开支由上季度指引的600亿-650亿美元上调至640亿-720亿美元ღღ★。高带宽ღღ★、高质量以及高可靠性的互联网络能够确保算力集群处于高效率的运行状态ღღ★。人工智能数据中心建设景气度高ღღ★,给光模块产业链带来广阔的空间ღღ★,国内主要光模块公司的业绩持续增长ღღ★。

  展望明年ღღ★,预计800G光模块需求仍然强劲ღღ★,1.6T光模块有望快速放量ღღ★。在AI数据中心中ღღ★,越来越多的客户倾向于选择更大带宽的网络硬件ღღ★。带宽越大ღღ★,单位bit传输的成本更低ღღ★、功耗更低及尺寸更小ღღ★。800G光模块的高增速已经能够反映出AI对于带宽迫切的需求ღღ★,其在2022年底开始小批量ღღ★,2023年和2024年的出货量都大幅增长ღღ★。而AI对于带宽的需求是没有极限的ღღ★,得益于网络较高的性价比ღღ★,1.6T光模块有望加速应用ღღ★。NVIDIA正在通过ConnectX-8 SuperNIC 升级网络平台架构ღღ★,ConnectX-8是业内首款集成PCIe 6.0交换机和高速网络的网卡ღღ★,专为现代 AI 基础架构设计ღღ★,可提供更高的吞吐量ღღ★,同时简化系统设计ღღ★,并提高能效和成本效益ღღ★。

  CPOღღ★,Co-packaged Opticsღღ★,即共封装光学技术ღღ★,是将光芯片/器件与电芯片/器件合封在一起的封装技术ღღ★。CPO的封装一般指两方面ღღ★:一是光引擎(OE)中PIC和EIC的封装ღღ★,二是光引擎和ASIC/XPU/GPU的系统级封装ღღ★。共封装光学技术的优点包括降低功耗ღღ★、降低成本和减小尺寸ღღ★。降低功耗ღღ★:信号传输的电路距离大大缩短ღღ★,电信号损耗降低美高梅·MGM(中国)平台网站入口ღღ★,简化后的SerDes去掉CDRღღ★、DFEღღ★、FFE和CTLE之后功耗降低ღღ★,可节省30%+的功耗ღღ★;降低成本ღღ★:封装工艺成本更低ღღ★,高集成度的光引擎成本更低ღღ★,同时省去部分电学芯片成本ღღ★,可降低25%+的成本ღღ★;减小尺寸ღღ★:借助硅光技术和CMOS工艺ღღ★,共封装显著减小光电引擎各自独立封装方式的尺寸ღღ★,同时实现更高密度的I/O集成ღღ★。

  Scale-up是指通过增加单个节点的资源来提升整个集群的算力ღღ★。常见的单个节点是八卡服务器ღღ★,随着大模型参数量大幅提升ღღ★,英伟达先后推出了GH200 NVL32和GB200 NVL72等机架类产品ღღ★,得益于高速的NVLink互连带宽ღღ★,整个机架可类比为“One Giant GPU”ღღ★,未来scale-up domain有望提升到千卡及万卡级别ღღ★。2023年ღღ★,英伟达宣布生成式AI引擎NVIDIA DGX GH200现已投入量产ღღ★。GH200通过NVLink 4.0的900GB/s超大网络带宽能力来提升算力ღღ★,服务器内部可能采用铜线方案ღღ★,但服务器之间可能采用光纤连接ღღ★。相比较传统的IB/Ethernet的网络ღღ★,GH200采用的NVLink-Network网络部分的成本占比大幅增长ღღ★,但是因为网络在数据中心中的成本占比较低ღღ★,因此通过提升网络性能来提升算力性价比很高ღღ★。

  CPO技术是系统性工程ღღ★,涉及到材料ღღ★、器件ღღ★、EDAღღ★、模块ღღ★、设备等ღღ★,对设计ღღ★、封装和测试的要求非常高ღღ★,因此目前产业中的现状主要是科技巨头在主导ღღ★,产业链中的供应商配合ღღ★。CPO/OIO中主要组成部分是CPO光引擎ღღ★,采用的主要是硅光技术ღღ★,因此两者的供应链也高度重合ღღ★。参与到CPO/OIO研发的厂商主要是FAUღღ★、MPOღღ★、CW laserღღ★、光引擎ღღ★、封装ღღ★、流片厂ღღ★、PCB厂商等ღღ★,我们认为在各个细分领域具备较强优势的厂商ღღ★,同样在CPO/OIO领域有望延续该领先优势美高梅·MGM(中国)平台网站入口ღღ★。光引擎是核心产品ღღ★,虽然目前主要是英伟达和博通等公司在主导ღღ★,但是考虑到光引擎与光模块的设计ღღ★、制造和测试环节高度相似ღღ★,我们认为光模块公司仍然具备较大的优势ღღ★。FAUღღ★、MPO和Fiber Shuffle等光纤连接器产品ღღ★,在CPO/OIO产品上的价值量有望显著提升ღღ★。CW DFB laser是重要的光源产品ღღ★,在FR等波分复用的方案中ღღ★,边缘波长的激光器难度较大ღღ★,价值量也较高ღღ★。

  我们认为ღღ★,算力板块目前的景气度依然较高ღღ★,虽然市场对未来的预期存在分歧ღღ★,但从Token的增长情况来看ღღ★,中长期展望依然乐观就估值而言ღღ★,我们认为既然市场对未来有分歧ღღ★,那就对未来的盈利预测也会有分歧ღღ★,所以未来的估值一定程度上就不具有很强的参考意义ღღ★。对此ღღ★,我们认为可以参考历史ღღ★。复盘2019-2020年ღღ★,5Gღღ★、云计算叠加疫情带来的在线经济需求ღღ★,也让光模块板块大涨ღღ★,之后进入了约2年半的市场震荡寻底阶段ღღ★。

  2025年4月ღღ★,华为在云生态大会上推出CloudMatrix 384超节点ღღ★,并宣布已在芜湖数据中心规模上线ღღ★。据介绍ღღ★,华为昇腾超节点凭借高速总线互联技术实现重大突破ღღ★,把总线从服务器内部ღღ★,扩展到整机柜ღღ★、甚至跨机柜ღღ★。在超节点范围内ღღ★,用高速总线互联替代传统以太网ღღ★。根据SemiAnalysis的对比分析ღღ★,华为昇腾910C的单卡算力约为GB200的0.3Xღღ★、HBM容量约为GB200的0.7Xღღ★,但是在组成集群后ღღ★,CloudMatrix 384算力约为NVL72的1.7Xღღ★、HBM容量约为NVL72的3.6Xღღ★。不足之处则是CloudMatrix 384能耗更高ღღ★,系统总功耗是NVL72的3.9Xღღ★,每FLOP功耗是NVL72的2.3Xღღ★。正如任正非近期接受人民日报时所说ღღ★,中国芯片产业可通过“叠加与集群”技术路径实现突围ღღ★,在计算结果上与全球最先进水平相当ღღ★。

  英伟达NVLink与华为HCCSღღ★,两大厂商均希望打造自己的高速互联生态ღღ★。自2014年开始ღღ★,英伟达在其GPU中引入了NVLink互联技术ღღ★。NVLink是由英伟达开发的一种高带宽ღღ★、低延迟的点对点数据传输通道ღღ★。它的主要用途是连接GPUღღ★,或者GPU与CPU之间的通信ღღ★。经历了近十年的迭代ღღ★,从NVLink1.0到5.0ღღ★,GPU上的NVLink链路数从4条变为18条ღღ★,随着serdes速率增长以及调制方式从NRZ升级为PAM4ღღ★,单通道带宽从5GB/s升级至50GB/sღღ★,GPU之间通信的双向带宽达到了1800GB/sღღ★。华为HCCS对标英伟达的NVLinkღღ★,能够给内核ღღ★、设备ღღ★、集群提供系统内存的一致访问ღღ★,HCCS采用对等拓扑ღღ★,单链路的最大带宽是56GB/sღღ★,昇腾910B中的HCCS采用点对点拓扑ღღ★,单链路的最大带宽是56GB/sღღ★,聚合带宽392GB/Sღღ★。高速的互联带宽对于模型的分布式训练至关重要ღღ★,也成为英伟达与华为的核心竞争力之一ღღ★。

  英伟达和华为作为同时拥有GPU与交换芯片设计能力的公司ღღ★,既懂网络也懂计算ღღ★,打造一套属于自己的互联生态顺理成章ღღ★。但对于其它GPU与网络设备厂商则并非如此ღღ★,为了与NVlink竞争ღღ★,UECღღ★、UALink等组织相继成立ღღ★,旨在打造一个开放的高性能计算网络生态ღღ★。对于阿里ღღ★、腾讯这样的互联网厂商ღღ★,他们希望自己定义计算集群架构ღღ★,而不是成套的购买设备厂商的训练集群ღღ★,例如腾讯发布自己的星脉网络架构ღღ★,阿里也着手自研交换机ღღ★,因此开放的互联生态同样需要重视ღღ★。

  UALink1.0规范发布ღღ★:支持连接1024个加速器ღღ★,每通道200GT/s带宽ღღ★。UALink(UltraAcceleratorLink)由AMDღღ★、AWSღღ★、AsteraLabsღღ★、思科ღღ★、谷歌ღღ★、HPEღღ★、英特尔ღღ★、Meta和微软9家企业发起成立ღღ★,旨在为AIPod和集群中加速器与交换机之间的纵向扩展通信定义一种高速ღღ★、低延迟的互联规范ღღ★,挑战英伟达NVLink等互联在该场景的领导地位ღღ★。2025年4月ღღ★,UALink1.0发布ღღ★,支持每通道200GT/s的最大双向数据速率ღღ★,信号传输速率为212.5GT/sღღ★,以适应前向纠错和编码开销ღღ★。UALink可配置为x1ღღ★、x2或x4ღღ★,四通道链路在发送和接收方向上均可实现高达800GT/s的速度ღღ★。从标准发布到实际应用ღღ★,还需要协调众多厂商配合ღღ★,因此开放的互联协议能够真正在组网中应用预计还需要一至两年ღღ★。我们认为ღღ★,对于网络与交换环节建议重点关注交换芯片ღღ★、网卡等公司ღღ★。

  GB200服务器进入规模化量产阶段ღღ★,Blackwell将接替Hopper成为出货主力ღღ★。在GTC 2024大会上ღღ★,英伟达正式发布了新一代Blackwell架构AI芯片ღღ★,并推出了基于该架构的新型机架式AI服务器参考设计GB200ღღ★。由于散热挑战与液冷系统泄漏等问题ღღ★,GB200系统在2024年量产推进并不顺利ღღ★,整体进度滞后于预期ღღ★。随着英伟达与供应链合作逐步优化设计ღღ★,并解决关键技术难题ღღ★,24年底Blackwell平台开始进入爬坡阶段ღღ★,开启对Hopper平台的替代ღღ★。英伟达FY26Q1(2025年2月-4月)数据中心业务中近70%的收入已由Blackwell平台贡献ღღ★。鸿海ღღ★、广达等核心ODM供应商也普遍预计ღღ★,GB200将在2025Q2加速放量ღღ★,微软ღღ★、Meta等多家云服务厂商也陆续部署新一代系统ღღ★。

  升级方案GB300有望于2025年下半年开启量产美高梅·MGM(中国)平台网站入口ღღ★。英伟达在GTC 2025大会上披露相约同城ღღ★,预计GB300将于2025年下半年量产上市ღღ★。硬件方面ღღ★,GB300采用12-Hi堆叠的HBM3e内存结构ღღ★,每颗GPU配备288 GB显存ღღ★,较GB200的192 GB提升50%ღღ★。系统I/O也全面升级ღღ★,整机网络带宽提升至1.6 Tbpsღღ★,以满足更高并发推理的通信需求ღღ★。在性能表现上ღღ★,GB300 NVL72在FP4精度下的推理算力相较GB200 NVL72提升约1.5倍ღღ★。为确保量产进度ღღ★,英伟达此次在设计上回归稳定的Bianca板卡方案ღღ★,并优化了液冷系统与供电模块ღღ★。GB300将成为继GB200之后美高梅·MGM(中国)平台网站入口ღღ★,又一轮AI服务器放量的关键驱动ღღ★。

  自研ASIC芯片不仅能够降低功耗ღღ★,还能帮助CSP掌握AI基础设施的成本与供应链ღღ★,避免过度依赖英伟达ღღ★,因此自研ASIC正成为CSP的竞争关键ღღ★。谷歌曾独占ASIC AI芯片市场ღღ★,目前AWSღღ★、Metaღღ★、微软等企业也开始积极投入ASIC AI芯片开发ღღ★。AWS的ASIC AI芯片Trainium 2在2024Q4开始量产ღღ★,搭载该芯片的服务器则在2025Q1开始规模化出货ღღ★,纬颖作为AWS ASIC服务器的核心供应商ღღ★,营收大幅受益ღღ★。AWS下一代Trainium 3晶片则预计在2025年底之前量产ღღ★。

  制程迭代是芯片算力提升的关键因素ღღ★,AI算力需求的爆发催生了对先进制程的强需求ღღ★。AI大模型发展对芯片算力提出更高要求ღღ★,未来更成熟的AGI模型所需算力是现在GPT-4所需算力的1万倍ღღ★。而解决高算力需求的一种方案是采用更为先进制程的芯片ღღ★,因为芯片制程越先进ღღ★,功耗越低ღღ★、计算速度越快ღღ★。如2nm芯片功耗约为16nm芯片的10%ღღ★,而性能约为16nm芯片的2倍以上ღღ★。台积电估计其即将推出的N2P节点的功耗可能比N3E节点低30-40%ღღ★。

  服务器需求将超过智能手机成为先进制程最主要的驱动力ღღ★。历史上ღღ★,智能手机的迭代更新推动了芯片制程的不断演进ღღ★,但随着AI应用的计算需求上升ღღ★,服务器成为主要的算力中心ღღ★,且对高算力的追求使得其对先进制程呈现出越来越高的需求ღღ★,AI芯片功耗较高ღღ★,且需要更小的尺寸ღღ★,因此AI芯片对先进制程的迫切需求将推动服务器需求成为先进制程最大的驱动力ღღ★。Sumco估计ღღ★,在AI服务器出货量强劲增长的推动下ღღ★,服务器对先进制程晶圆的需求量最快将在2024年超过智能手机ღღ★。

  2025年是2nm量产交付元年ღღ★,台积电已获得多家客户订单ღღ★。台积电ღღ★、三星ღღ★、Intel均有望在2025年量产2nm制程ღღ★,但目前Intel和三星主要用于生产自有产品ღღ★,并未获得第三方客户的量产订单ღღ★。Intel的18A将生产Panther Lake (PC CPU)和Clearwater Forest (服务器CPU)ღღ★,三星的SF2可能将获得自研处理器Exynos 2600的订单ღღ★。台积电的2nm已获得多家客户订单ღღ★,包括AMD的Venice(服务器CPU)ღღ★,苹果的A20/A20 Pro和M6系列ღღ★,高通第三代8 Eliteღღ★。此外ღღ★,AWSღღ★、谷歌ღღ★、微软未来的ASIC AI芯片在2nm节点上都大概率选择台积电ღღ★。

  先进制程面临物理约束瓶颈ღღ★,先进封装成为提高芯片性能的重要解决方案ღღ★。AI大发展使得算力需求爆发式增长ღღ★,然而ღღ★,随着半导体工艺尺寸进一步缩小ღღ★,集成电路制造面临的挑战日益增大ღღ★,摩尔定律日趋放缓ღღ★,单位晶体管的成本不降反升ღღ★,应用先进制程的芯片研发费用也大幅增长ღღ★。先进封装通过异构集成ღღ★,将多个芯粒(Chiplets)高密度连接在一起ღღ★,整体性能提升不再依赖单一芯片支持ღღ★,且大幅提升良率ღღ★,降低成本ღღ★,成为提供系统级性能提升的新路径ღღ★。

  CoWoS为HPC和AI计算领域广泛使用的先进封装技术ღღ★。CoWoS是台积电推出的 2.5D封装技术ღღ★,本质上是将多个芯片(如逻辑芯片+HBM)放置在一块硅中介层(interposer)上ღღ★,再封装在基板上ღღ★,2012年首先应用于Xilinx的FPGA上ღღ★。此后ღღ★,英伟达ღღ★、AMDღღ★、谷歌等厂商的AI芯片均采用了CoWoSღღ★,例如A100ღღ★、H100ღღ★。如今CoWoS已成为HPC和AI计算领域广泛应用的2.5D封装技术ღღ★,绝大多数使用HBM的高性能芯片ღღ★,包括大部分创企的AI训练芯片都应用CoWoS技术ღღ★。

  AI持续高景气带动CoWoS需求不断提升ღღ★。2023年一季度以来ღღ★,AI服务器的需求不断增长ღღ★,使台积电CoWoS封装产能紧缺ღღ★。台积电一方面将制程分段委外ღღ★,另一方面大幅扩产CoWoS产能ღღ★。

  HBM 3D堆叠提升内存性能ღღ★,AI芯片广泛采用ღღ★。随着数据的爆炸式增长ღღ★,内存墙对于计算速度的影响愈发显现ღღ★。为了减小内存墙的影响ღღ★,提升内存带宽一直是存储芯片聚焦的关键问题ღღ★。如同闪存从2D NAND向3D NAND发展一样ღღ★,DRAM也正在从2D向3D技术发展ღღ★,HBM为主要代表产品ღღ★。与传统DRAM不同ღღ★,HBM是3D结构ღღ★,它使用TSV技术将数个DRAM裸片堆叠起来ღღ★,形成立方体结构ღღ★,与传统内存相比ღღ★,HBM的存储密度更大ღღ★、带宽更高ღღ★,基本成为数据中心AI芯片的标配ღღ★。

  预计2028年全球先进封装市场规模增至786亿美元ღღ★,2022-2028年CAGR达到10.0%ღღ★。根据Yole数据ღღ★,2022年全球封装市场中ღღ★,先进封装占比已达到47%ღღ★。预计到2028年ღღ★,先进封装市场占比将增至58%ღღ★,规模约为786亿美元ღღ★,2022年-2028年CAGR约为10.0%ღღ★,明显高于传统封装市场的2.1%和市场整体的6.2%ღღ★。

  晶圆代工龙头台积电打造先进封装工艺标杆ღღ★,传统封测厂商亦纷纷加快转型步伐ღღ★。台积电在先进封装上已取得了可观的收入体量ღღ★,技术布局也进入关键节点ღღ★,未来投入规模将持续加码ღღ★。在OSAT厂商中ღღ★,日月光VIPack先进封装平台包含六大核心技术ღღ★,安靠推出FCMCM(倒装多晶片模组)ღღ★、2.5D(TSV)等五大先进封装解决方案ღღ★。国内长电先进聚焦bumpingღღ★,Fan-out CSP晶圆级等先进封装ღღ★,通富微电在2.5D/3D先进封装保持国内领先ღღ★,深科技专注存储封测领域ღღ★,并聚焦倒装工艺(Flip-chip)ღღ★、POPt堆叠封装技术的研发ღღ★。

  全球HBM(高带宽存储器)技术呈现“海外领跑ღღ★、国内加速追赶”的双轨格局ღღ★。海外市场由SK海力士ღღ★、三星ღღ★、美光三大巨头垄断95%以上份额ღღ★:SK海力士凭借HBM3/3E量产优势稳居首位(市占率52.5%)ღღ★,其12层堆叠HBM4测试良率已突破70%ღღ★,计划2025年量产ღღ★;三星正加速优化HBM3E良率并推进HBM4研发ღღ★,2024年通过AMD MI300系列验证后逐步放量ღღ★;美光则聚焦HBM3e量产ღღ★,但产能扩张略有滞后ღღ★。国内HBM产业受地缘政策催化进入提速阶段ღღ★。

  从HBM的生产工艺来看ღღ★,DRAM颗粒为定制的DRAM颗粒ღღ★,工艺难点在于封测ღღ★。TSVღღ★、大规模回流模塑底部填充(MR-MUF)ღღ★、自对准ღღ★、混合键合等工艺很大程度上影响HBM的性能和良率ღღ★。

  (1)TSVღღ★:不采用传统的布线方法来连接芯片与芯片ღღ★,而是通过在芯片上钻孔并填充金属等导电材料以容纳电极来垂直连接芯片ღღ★。制作带有TSV的晶圆后ღღ★,通过封装在其顶部和底部形成微凸块(Micro Bumping)ღღ★,然后连接这些凸块ღღ★。由于TSV允许凸块垂直连接ღღ★,因此可以实现多芯片堆叠ღღ★。最初ღღ★,使用TSV接合的堆栈有4层ღღ★,后来增加到8层ღღ★。最近ღღ★,一项技术使得堆叠12层成为可能ღღ★,SK海力士于2023年4月开发了其12层HBM3ღღ★。虽然TSV倒装芯片接合方法通常使用基于热压的非导电薄膜(TC-NCF)ღღ★,但SK海力士使用MR-MUF工艺ღღ★,可以减少堆叠压力并实现自对准ღღ★。这些特性使SK海力士能够开发出世界上第一个12层HBM3ღღ★。

  (2)MR-MUFღღ★:将半导体芯片堆叠起来ღღ★,并将液体保护材料注入芯片之间的空间ღღ★,然后硬化以保护芯片和周围电路的工艺ღღ★。与在每个芯片堆叠后应用薄膜型材料相比ღღ★,MR-MUF是一种更高效的工艺ღღ★,并提供有效的散热ღღ★。目前SK海力士主要使用MR-MUF工艺生产HBM2e/3/3eღღ★,使得其领先于三星电子和美光ღღ★,后者主要采用TC-NCF工艺ღღ★。MR-MUF工艺需要使用液态环氧树脂(EMC)ღღ★,目前全球仅日本namics独供ღღ★。除EMC外ღღ★,HBM封装还需要底部填充胶用于FC工艺ღღ★,采用PSPI作为硅中介层中RDL的再钝化层ღღ★,还需要IC载板ღღ★、DAFღღ★、Solder ball等材料ღღ★。

  (3)自对准ღღ★:在 MR-MUF工艺期间通过大规模回流将芯片重新定位到正确的位置ღღ★。在此过程中ღღ★,热量被施加到芯片上ღღ★,导致相关凸块在正确的位置熔化并硬化ღღ★。

  (4)混合键合ღღ★:C2W混合键合具有多种优势ღღ★,①允许无焊料键合ღღ★,减少键合层的厚度ღღ★、缩短电气路径并降低电阻ღღ★。因此ღღ★,小芯片可以高速运行ღღ★,就像单个芯片一样ღღ★。②通过直接将铜与铜接合ღღ★,可以显着减小凸块上的间距ღღ★。目前ღღ★,使用焊料时很难实现10 um或更小的凸块间距ღღ★。然而ღღ★,铜对铜直接键合可以将间距减小到小于1umღღ★,从而提高芯片设计的灵活性ღღ★。③先进的散热功能ღღ★。④上述的薄粘合层和细间距影响了封装的形状因数ღღ★,可以大大减小封装尺寸相约同城ღღ★。目前混合键合主要用于单层键合或两个芯片面对面堆叠ღღ★,SK海力士2022年用混合键合完成了8层HBM2e的堆叠ღღ★,正在开发用于更高密度ღღ★、高堆叠HBM的混合键合ღღ★。

  需求紧俏ღღ★,HBM持续挤压DRAM产能ღღ★。从需求端看ღღ★,云计算厂商将更多资本开支投入AI基础设施ღღ★,2024年北美CSP的资本开支增速在55%ღღ★,主要来自AI推动ღღ★,传统服务器需求基本持平ღღ★,25Q1同比增长64%ღღ★,预计2025年CSP资本开支维持大幅增长ღღ★。算力需求的快速增长ღღ★,算力卡的数量和配置快速升级ღღ★,最终带来的是算力芯片和HBM需求的快速增长ღღ★。结合海外存储厂商和咨询机构的预测ღღ★, 2024年HBM市场规模达到160亿美金ღღ★,同比增长300%ღღ★,预计2025年达到320亿美金ღღ★,同比增长100%ღღ★。从供给端看ღღ★,HBM供应仍然紧缺ღღ★,在传统DRAM库存波动的情况下ღღ★,HBM由于AI服务器的强劲需求ღღ★,挤占DRAM产能的现象还在持续ღღ★。

  HBM快速迭代ღღ★,HBM4即将进入量产ღღ★。结构上ღღ★,2025年HBM3e将占据主导ღღ★,根据SK海力士ღღ★,2024年其HBM3e收入将占HBM收入一半以上ღღ★,2025年12层HBM3e供给量将超过8层产品ღღ★,12层HBM4计划于25H2发货ღღ★。(1)HBM3eღღ★:三大原厂相继推出12Hi产品ღღ★,这些12Hi的HBM预计用在英伟达的B300A(B200A Ultra)和B300上ღღ★。(2)HBM4ღღ★:三星ღღ★、海力士计划24Q4开始HBM4的流片ღღ★,预计2026年用在英伟达下一代的Rubin芯片上ღღ★。

  推理时代即将到来ღღ★,推理将成为AI算力需求的新动力ღღ★。英伟达首席执行官黄仁勋在2025年GTC的主题演讲中提到ღღ★,随着AI行业在模型训练上的需求放缓ღღ★,叠加DeepSeek在模型推理上所作的创新ღღ★,AI推理时代即将到来ღღ★。相较于传统的生成式AI主要以语言大模型与聊天机器人的形式呈现ღღ★、聚焦生成文本和图像内容等ღღ★,AI Agent能理解任务ღღ★、进行复杂推理ღღ★、制定计划并自主执行多步骤操作ღღ★,由于AI Agent解决复杂问题ღღ★、分解任务每一步的逻辑思考过程都需要用到模型推理ღღ★,因此推理将成为AI新阶段的核心动力ღღ★。

  低成本是AI推理爆发的必要条件ღღ★,北美CSP厂商均加速研发ASIC的步伐ღღ★。大模型推理时代相较于移动互联网时代ღღ★,底层逻辑发生了巨大变化ღღ★。推理系统的成本几乎和客户使用量成线性关系ღღ★,因此边际成本很高ღღ★,且成本绝大部分是推理的算力消耗ღღ★。因此ღღ★,在大模型时代ღღ★,能将推理成本降到极致的厂商有望获得最终的胜利ღღ★。目前北美四大CSP厂商ღღ★,除了继续采用英伟达GPU做模型训练之外ღღ★,均在加速开发自家的ASIC产品ღღ★,一方面因英伟达的GPU价格昂贵ღღ★,硬件投入成本过高ღღ★,另一方面ღღ★,自研ASIC可针对特定需求进行优化ღღ★,也能针对特定的应用进行设计ღღ★,因此对于能耗或电力管理的控制将更加精准ღღ★,此外ღღ★,从供应链安全角度ღღ★,也可以避免算力资源都来自英伟达ღღ★、AMD等GPU厂商的风险ღღ★。在同等预算下ღღ★,AWS的Trainium 2可以比英伟达的H100 GPU更快速完成推理任务ღღ★,且性价比提高了30%~40%ღღ★。2025年底计划推出的Trainium3ღღ★,其计算性能更是提高了2倍ღღ★,能效有望提高40%ღღ★。谷歌的TPU v5芯片在Llama-3推理场景中ღღ★,单位算力成本较H100降低了70%ღღ★。根据IDC数据ღღ★,微软Azure自研ASIC后ღღ★,硬件采购成本占比从75%降至58%ღღ★,摆脱长期被动的议价困境ღღ★。

  在Google Cloud Next 25大会上ღღ★,谷歌又推出了第七代张量处理单元(TPU v7)Ironwoodღღ★,它是谷歌迄今为止性能最高ღღ★、可扩展性最强的定制ASIC芯片ღღ★,也是首款专为推理而设计的加速器ღღ★。Ironwood的每瓦性能是谷歌去年发布的第六代TPU Trillium的两倍ღღ★,HBM容量及双向带宽均大幅提升ღღ★。谷歌ASIC服务器计算板上有四个Ironwood TPUღღ★,这个与之前TPU v5计算板架构一样ღღ★。

  博通和Marvell均看好ASIC市场需求ღღ★。博通和Marvell是ASIC定制领域的主要玩家ღღ★,二者在AI定制芯片中占据了超70%的市场份额ღღ★。博通定制的ASIC芯片广泛应用于数据中心ღღ★、云计算ღღ★、高性能计算(HPC)ღღ★、5G无线基础设施等领域ღღ★,根据博通最新财报ღღ★,2025Q1公司AI芯片收入占比50%ღღ★,同比增长77%ღღ★,其中ASIC相关收入占比60%ღღ★。博通认为XPU的需求会持续上涨ღღ★,公司预计2025年下半年ASIC收入占比会持续上升ღღ★,主要是因为推理模型需求增长使得AI芯片业务增速加快ღღ★。Marvell的ASIC业务也成为公司强劲增长的核心动力之一ღღ★。2024年12月初ღღ★,Marvell与AWS达成了一项为期五年的战略合作协议ღღ★,包括帮助亚马逊设计自有AI芯片ღღ★。伴随AWS芯片的量产ღღ★,Marvell在2025Q1实现营收18.95亿美元ღღ★,同比增长63%ღღ★,创历史新高ღღ★。Marvell也预测ღღ★,随着AI计算需求的增长ღღ★,公司ASIC占比有望提升至25%ღღ★,预计2028年数据中心ASIC市场规模将提升至429亿美元美高梅·MGM(中国)平台网站入口ღღ★。

  中国ASIC服务器市场增速超40%ღღ★。中国ASIC服务器市场未来在中国市场ღღ★,由于部分高端GPU产品受供应的限制ღღ★,出现了算力缺口ღღ★,另外中国头部的互联网企业为了降低成本以及更好地适配自身业务场景ღღ★,也增大了自研ASIC芯片服务器的部署数量ღღ★。IDC预测ღღ★,2024年中国加速服务器市场规模将达到190亿美元ღღ★,同比2023年增长87%ღღ★。其中GPU服务器依然是主导地位ღღ★,占据74%的市场份额ღღ★。到2028年ღღ★,中国加速计算服务器市场规模将超过550亿美元ღღ★,其中ASIC加速服务器市场占比将接近40%ღღ★。

  随云厂商积极自研ASIC芯片ღღ★,ASIC正成为AI服务器市场中与GPU并行的重要架构ღღ★,进一步带动高阶PCB的需求ღღ★。金像电为全球服务器PCB第一大厂ღღ★,也是ASIC服务器放量时PCB企业中的最大受益者ღღ★。金像电的产品已经切入北美四大CSPღღ★,涵盖UBBღღ★、OAM(加速器模组)所需要的HDIღღ★、厚铜板等ღღ★。根据金像电25Q1法说会资料ღღ★,公司25Q1单季度实现收入29.52亿元ღღ★,创历史新高ღღ★,其中服务器收入占比持续提升ღღ★,到72%ღღ★。在传统服务器市场温和复苏背景下ღღ★,金像电业绩高增核心来自于云厂商ASIC服务器PCB订单ღღ★,根据公司交流ღღ★,2024年AI产品占比已达20%ღღ★,未来将持续提升ღღ★。

  根据Semianalysis数据ღღ★,亚马逊第二代推理芯片Trainium2的计算托盘中使用了2个Trainium2的芯片ღღ★,即用到2个OAMღღ★,下面是一块UBB板ღღ★。UBB为采用了M8规格覆铜板材料的28层高多层板ღღ★,OAM为M6/M7的三阶HDIღღ★,往下一代Trainium3迭代的过程中ღღ★,UBB中层数ღღ★、OAM层数及阶数均会进一步提升ღღ★。

  展望2025年ღღ★,除AWS外ღღ★,谷歌ღღ★、meta的新产品中相约同城ღღ★,ASIC服务器UBB层数均将向30层板以上推进ღღ★,制作难度加剧ღღ★,也将进一步推动ASP的提升ღღ★,ASIC服务器PCB将迎来量价齐升阶段ღღ★,同时也将拉动上游高规格(M8等)覆铜板的需求ღღ★。

  三大增量助力推理算力需求加速ღღ★。AI算力消耗开始从训练走向推理ღღ★,并且带来显著的算力增量ღღ★,探究背后增量需求主要来自三方面ღღ★:一是各家互联网大厂纷纷加速AI与原有业务结合ღღ★,如谷歌搜索在今年5月21日正式迎来 AI 模式ღღ★,并逐步在美国市场推出ღღ★,考虑到谷歌搜索全球范围内年搜索量为5万亿次+ღღ★,假设单次回答平均为2000 tokenღღ★,则该功能将带来日均27万亿token消耗(超过其Gemini模型目前日均16万亿token消耗)ღღ★,类似案例如抖音搜索ღღ★、微博AI智搜ღღ★,搜索功能开始从普通服务器迁移到AI服务器并重塑所有搜索体验ღღ★,类似的视频编辑ღღ★、剪辑功能也被AI重塑ღღ★;二是Agent和深度思考推理的结合ღღ★,通过两者结合ღღ★,Agent执行任务准确率大幅提高ღღ★,Agent执行一次任务平均消耗token达到十万亿的量级ღღ★,大幅超过AI搜索单次问答token消耗ღღ★,并且能延伸到更多开放式场景ღღ★,如智谱发布会演示的“用你最擅长的方式去赚100块钱”ღღ★,同时多Agent协作的群体智能也已开始逐步商用化ღღ★,过去复杂ღღ★、多步骤的任务可通过Agent实现ღღ★,Agent的普及将带来推理算力需求的大幅增长ღღ★;三是多模态ღღ★,随着多模态生成的图片及视频质量今年均显著提升ღღ★,今年AI营销内容占比提升十分明显ღღ★,根据《2025中国广告主营销趋势调查报告》显示“超过50%的广告主ღღ★,已经在生成创意内容时使用AIGCღღ★,并且AI营销内容占比超过10%”ღღ★,而一分钟视频的生成token消耗基本在10万亿token量级ღღ★,目前多模态模型开始步入快速商业化阶段ღღ★,如快手可灵4ღღ★、5月连续两月付费金额超过1亿ღღ★,多模态的加速渗透带来明显的算力需求提升ღღ★。

  展望2025年下半年及26年ღღ★,我们认为算力领域投资分为海外景气度投资以及国内自主可控两大类ღღ★:

  海外景气度投资ღღ★:1)重视推理占比的提升ღღ★:参照台积电Cowos扩产节奏ღღ★,ASIC芯片在26年的边际变化最为明显ღღ★,同时英伟达依然有较高增速ღღ★;2)围绕机柜增量变化及新技术投资ღღ★,25年下半年核心是英伟达NVL72机柜上量ღღ★,其中液冷散热ღღ★、铜连接ღღ★、电源变化最大ღღ★,散热方面将是AI算力领域未来几年核心技术升级方向之一ღღ★,目前供应商以台系厂为主ღღ★,考虑到中国大陆的公司扩产能力更具优势ღღ★,我们认为液冷散热领域一系列部件会有更多中国大陆供应商进入到全球供应体系ღღ★。铜链接方面ღღ★,铜线在短距数据传输的成熟度更高且448G等新技术路线逐步面世ღღ★,今年扩产最快的公司将充分享受从Blackwell到Rubin所带来的高速连接需求增长ღღ★。电源领域重视氮化镓等机会ღღ★;3)围绕预期差及景气度投资ღღ★,重视PCBღღ★,英伟达ღღ★、亚马逊ღღ★、METAღღ★、谷歌等相关需求景气度高ღღ★,并重视上游国产化比例提升ღღ★,并且部分领域库存开始下降ღღ★、价格具备一定弹性ღღ★。

  国内自主可控ღღ★:一方面来自于美国BIS政策的持续收紧ღღ★,另一方面随着国内算力消耗快速增长(典型如字节跳动相约同城ღღ★,每三个月token消耗接近翻一倍ღღ★,5月底为16.4万亿token)ღღ★,我们预计国内各家大型云厂商在日均token消耗达到30万亿token时会感受到算力紧张ღღ★,在达到60万亿token时会开始出现一定算力缺口ღღ★。我们认为国内增速斜率更陡峭ღღ★,国产芯片今年将迎来发展大年ღღ★。

  自从23年ChatGPT出现以来ღღ★,基于AI业务token消耗的快速提升ღღ★,海外大厂开启CAPEX高额投入周期ღღ★,持续在模型训练和推理端加大算力投入ღღ★,模型性能得到快速迭代ღღ★。与此同时ღღ★,伴随24年12月以来DeepSeek V3和R1的逐渐发布ღღ★,其首次实现了国产模型在推理任务上与 OpenAI-o1的基本相当ღღ★,并引发了访问流量的快速扩大(DeepSeek 应用(APP)于 2025年1月11日发布ღღ★,1月31日DAU达 2215 万ღღ★,达 ChatGPT 日活用户的 41.6%ღღ★,超过豆包的日活用户 1695 万)ღღ★,伴随Deepseek带来的降本范式(FP8 混合精度训练框架)持续演化ღღ★,模型输入/输出成本得到快速下降ღღ★,AI应用大范围推广成为可能ღღ★。云计算产业作为模型训练/推理需求快速扩大下的直接受益方ღღ★,进入了持续高景气周期ღღ★。

  站在当前时点ღღ★,云厂云业务营收增速与营业利润率(或EBITA利润率)是CAPEX投入的前瞻指引ღღ★。2023年以ღღ★。美高梅网址美高梅官网正网ღღ★!美高梅官网ღღ★,美高梅mgm1888ღღ★,美高梅(MGM)娱乐app下载ღღ★,美高梅电子游戏appღღ★,美高梅MGM


美高梅MGM·(中国)唯一官方网站| http://www.txt086.com