OKX Casino
OKX Casino
- OKX Casino - 专业USDT加
- OKX Casino - 专业USDT加
- OKX Casino - 专业USDT加
- AI医疗进阶30:医疗普惠潮下的效率革命
- OKX Casino - 专业USDT加
联系我们
电话:363050.com
手机:363050.com
邮箱:363050.com
地址:OKX Casino永久网址【wdhash.cc】
USDT赌场
OKX Casino - 专业USDT加密赌场,安全稳定,极速出款【东北年度策略】AI化比数字更重要——计算机行业2026年度策略报告
- 作者:小编
- 发布时间:2025-12-02 09:46:46
- 点击:
OKX Casino,USDT赌场,加密货币博彩,比特币赌场,USDT投注,区块链博彩,虚拟币赌场,体育竞猜,电子游艺,极速出款1)从计算机板块整体Q3业绩表现来看,我们认为基本面已经发生变化,其中前三季度计算机整体收入实现11533.72亿元,同比+6.93%,扣非归母净利润实现203.14亿元,同比+18.45%。其中云基建、AI、信创板块更为突出,2026年计算机AI商业化落地叠加基本面修复预期,我们认为行业有望迎来重估;
2)从公募持仓水平来看,Q3计算机在公募持仓占比为2.86%,维持低配,同比-0.02pct,前五大持仓为金山办公、中科曙光、科大讯飞、浪潮信息、同花顺。
2026年我们主要看好行业细分赛道:国产算力、海外存力&算力、云计算、IDC、应用链(agent+国产人形机器人产业链):
1)国产算力方面:海外Rubin引领,国产算力加速追赶,目前国产算力华为、寒武纪、海光信息等引领国产算力加速发展,叠加沐曦、摩尔等IPO加速,下游大厂阿里、字节等需求进一步加大,明年agent加速落地tokens消耗预计继续提升,为此带来的capex对应的国产算力支出我们认为有望继续向上;
2)海外算力&存力:海外AI全生态闭环,从大厂capex到上游算力业绩兑现再到下游应用业绩逐步释放,我们认为海外正在从模型应用侧向商业化落地演进,同时也正在从训练侧向推理侧过渡,坚定看好海外算力尤其是CCL上游明年业绩释放和存储大周期;
3)云计算:行业标志性事件:OpenAI牵手亚马逊,7年380亿美元AI云计算大单,我们认为代表模型行业对云计算需求正在崛起,未来随着模型tokens调用量的提升,对于底层算力需求将会持续提升,云基建作为算力调用池,在成本、效率上更具备优势,是未来大厂使用的趋势之一;
4)IDC:IDC尤其是AIDC经历了前几年国内大厂扩张&2026年或将继续加大投入的背景下,订单有望加速释放,我们认为前期投入或者订单有望在明年逐渐兑现;
5)应用链:2026年我们认为agent有望迎来估值与基本面双修复,叠加国内模型持续进步,场景进一步丰富,商业化落地或将加速,核心看好AI医疗、教育、金融、办公等场景;宇树IPO加速,人形国产链明年有望迎来商业化加速时期,核心看好国产人形机器人产业链,包括落地的各个应用场景。
相关公司:国产算力(寒武纪、海光信息、华丰科技);海外算力&存力(CCL上游:德福科技、菲利华、华光新材;液冷:远东股份;存储:海力士、美光、闪迪、德明利、时空科技、开普云、香农芯创);云计算(阿里巴巴、优刻得、首都在线、金山云);IDC(数据港、奥飞数据、金盘科技);应用(agent:金山办公、用友网络、海天瑞声、能科科技;机器人:精工科技、长源东谷、祥鑫科技、麦迪科技)(注:以上除德福科技、开普云、华光新材、远东股份、金山办公、能科科技、精工科技、祥鑫科技、麦迪科技已覆盖,其他仅作为相关公司列举,不作为推荐)
受益人工智能应用需求,收入持续增长。英伟达2026H1营业收入908.05亿美元,同比增长61.91%,主要得益于加速计算和人工智能解决方案的数据中心计算与网络平台,Blackwell GPU在2025年上半年收入持续增长。受2025年4月美国政府出口新政策影响,公司在2026一季度产生45亿美元费用,部分产品库存无法释放,2025年8月部分H20产品获向特定中国客户发货许可,但截至当时未实现收入或发货。
持续推进数据中心建设,增强供应链能力。英伟达积极构建和强化其全球供应链,以支持AI数据中心基础设施的快速发展。在供应链建设方面,公司于2026财年第二季度开始交付Blackwell Ultra平台(包括GB300)的生产单元,确保先进计算产品的持续推出。为应对美国政府规则变化,英伟达将扩大美国本土制造业务,投资专用设备和工艺,以提升供应链韧性和冗余能力,满足对AI基础设施日益增长的需求。同时,公司通过多项合作夯实供应链基础:与ABB集团共同开发下一代AI数据中心;与PowerIntegrations合作推进数据中心更高电压运行技术;向OpenAI投资高达1000亿美元用于新数据中心建设;向英特尔注资50亿美元以支持芯片供应链;并联合谷歌、OpenAI等企业对英国进行数十亿美元投资,扩展数据中心布局。这些举措全面强化了从硬件制造到能源管理的供应链体系,确保英伟达在开源模型和竞争环境中保持平台影响力。
CoreWeave于3月28日以每股40.00美元正式上市,共计发行3750万股A类普通股。作为一家专为人工智能和高性能计算优化的云计算基础设施提供商,CoreWeave凭借其专有软件和云服务平台,为大规模管理智能创造与交付提供支持。公司于2025年5月完成了对人工智能开发平台Weights and Biases, Inc.的收购,并于7月18日宣布计划投资60亿美元于宾夕法尼亚州的新数据中心。通过并购与投资,公司有望进一步增强AI服务,完善产业链条。
与各大AI企业战略合作,订单驱动快速增长。公司在上市后几个月内与OpenAl达成了为期多年、价值总计达184亿美元的合同,与Meta平台公司达成的价值142亿美元的计算服务协议,还与芯片巨头英伟达签署了价值63亿美元的采购协议。这些订单为公司提供了稳定收入,体现了公司云服务技术强大的市场竞争力。
受益市场需求,AI浪潮推动营收毛利双增长。公司的财务业绩表现强劲。2025Q3半导体及相关产品营业收入达257.86亿美元,基础设施产品收入达200.86亿美元,主要得益于市场对网络产品,尤其是定制化人工智能加速器和AI网络解决方案的强劲需求。与此同时,基础设施软件部门收入由VMware Cloud Foundation(VCF)产品驱动增长。半导体与基础设施软件需求驱动下,公司毛利率显著提升。
大客户订单集中,与OpenAI达成合作。公司的业务模式呈现出显著的大客户集中特征。截至2025年8月3日的财季中,其半导体解决方案部门对单一客户的销售额占该季度净收入的比例高达32%,前五大终端客户在2025年8月3日结束的财季和三个财季的总销售额约占净收入的40%。公司还于2025年10月14日与人工智能领域的领导者OpenAI达成协议,将在定制芯片和网络设备领域展开深度合作。
AI驱动需求强劲,产品结构优化助力业绩提升。公司存储解决方案2025年业绩表现亮眼,DRAM(动态随机存储器)业务受益于价格、出货量及利润率的显著改善,实现了强劲的增长。公司战略性地将部分DRAM供应调整至高增长的数据中心与超大规模云市场,并重点推出高附加值的高带宽内存(HBM)产品,成功优化了收入结构,推动了DRAM产品组合盈利能力的全面提升。
各业务单元增长迅猛,云端与数据中心需求为核心驱动力。公司各业务单元在2025年均实现了显著的收入增长。其中,CMBU(云端内存业务单元) 收入同比激增257%,增长主要源于云服务器市场对高带宽内存(HBM)、大容量双列直插内存模块(DIMMS)内存模块和低功耗服务器DRAM的强劲需求,带动了DRAM比特出货量和平均售价的双重提升。与此同时,CDBU(核心数据中心业务单元) 收入实现了45%增长,这得益于数据中心DRAM与NAND平均售价的上涨,以及对数据中心固态硬盘需求的持续增加。
推出GPT-5及agent工具,大模型性能与应用场景持续拓展。公司于上半年发布OpenAI o3‑pro及Sora 2等前沿模型后,于8月发布GPT-5。GPT-5在编程、数学、写作和医疗等场景中展现出领先水平,幻觉减少的同时,模型推理能力进一步增强,能够为复杂问题提供深度思考的解决方案。OpenAI还通过推出AgentKit工具套件及ChatGPT Atlas浏览器,显著强化了其智能体生态的整合运用能力,旨在将AI深度嵌入开发与终端工作流。AgentKit包括Agent Builder画布、连接器注册表和ChatKit工具包,解决了以往代理开发中工具分散、编排复杂的问题,极大简化了多代理工作流程的设计与部署效率。ChatGPT Atlas作为以AI为核心的新网络浏览器,进一步将智能体能力与用户日常上下文无缝融合,拓展商业化应用场景。
发布开源模型,积极布局开放生态战略。OpenAI推出gpt-oss-120b和gpt-oss-20b两大开源模型。高性能、低成本的开源大模型降低了AI应用门槛,推动行业创新。公司还与AI Sweden、Orange、Snowflake等进行合作探索本地部署和实际应用,推动构建定制化AI工作流。8月6日,OpenAI与美国总务管理局(GSA)达成合作,2026年ChatGPT Enterprise将以 1 美元成本引入各个联邦行政部门。这一合作是特朗普政府的人工智能行动计划的一部分,旨在提升政府办公效率,进一步拓展了OpenAI在公共服务领域的应用场景。
“星际之门”计划加速扩张,构建全球领先的人工智能算力基础设施。2025年9月22日,OpenAI与英伟达签署里程碑式合作协议,计划部署至少10吉瓦的英伟达系统英伟达将按每吉瓦部署进度逐步投资最高1000亿美元,首批Vera Rubin平台系统将于2026年下半年投产;与AMD达成合作协议,首批AMD Instinct MI450系列GPU将于2026年下半年交付;10月13日宣布与博通合作开发10吉瓦定制AI加速器,这些搭载博通以太网解决方案的系统将于2026年下半年启动部署,并计划在2029年底前完成。10月1日三星与SK集团宣布加入“星际之门”计划,助推全球AI基础设施布局。同时,OpenAI联合甲骨文与软银在美国新增五处数据中心基地,星际之门计划未来三年规划容量突破7吉瓦,总投资规模超过4000亿美元。这些基建项目正加速构建高冗余、低延迟的算力基础设施,以支撑未来超级智能模型的研发与部署。
1.1.6.微软:Azure及云服务受益AI浪潮,百亿美元投资数据中心建设
AI驱动云业务增长,AI技术投入正循环。据微软2026财年Q1报告,其云业务整体收入达491亿美元,同比增长 26%,按固定汇率计算增长25%;商业未履行合同额大幅增长51%,达到3920亿美元。分业务来看,智能云业务增长 28%,其中Azure和其他云服务收入增长40%,远超生产力与业务流程收入(17%)及个性化计算业务收入(4%)。
微软在2025年围绕投资建设数据中心展开投资策略。微软宣布计划在2025年斥资高达800亿美元用于建设数据中心,还表示将在未来四年内在英国投资300亿美元用于建设人工智能基础设施。公司与人工智能基础设施集团Nebius达成价值高达174亿美元的协议,后者将在五年内为微软的人工智能业务提供算力。此外在印度,微软额外投资用于开发可扩展的人工智能计算生态系统,为当地人工智能初创企业和研究社区提供支持,并计划到2030年在印度培训1000万人掌握AI技能。
在与OpenAI的合作上出现新进展。微软与OpenAI表示双方已就新的合作条款签署了一份不具约束力的谅解备忘录,允许OpenAI继续重组为一家营利性公司,标志两家公司的合作关系进入了新阶段。
发布Gemini 2.5与Veo 3.1,丰富AI产品系列。谷歌在AI模型领域持续保持技术领先地位,推出了包括Gemini 2.5系列与Veo 3.1在内的一系列前沿模型,显著提升了其在复杂任务处理与多模态生成方面的核心竞争力。其中,Gemini 2.5 Pro作为其最先进的推理模型,在代码、数学及STEM领域的复杂问题解决上展现出强大能力,并支持长上下文分析以处理大型数据集与文档。Veo 3.1标志着谷歌视频生成技术的重大突破,能够制作具有高保真度、逼线p视频,并新增了视频扩展、指定帧生成及基于图片的指导等创新功能,进一步丰富了其AI产品的商业化应用场景。
多领域战略合作,强化市场竞争力。谷歌通过合作积极拓展其跨领域影响力。云业务方面,公司先后于2025年2月与Salesforce达成未来七年至少25亿美元的云计算合作协议,并于8月与Meta签署价值超100亿美元的云服务大单,极大巩固了其云业务的市场地位;业务落地与全球布局上,其旗下Waymo于9月宣布与Lyft达成首次商业合作,计划于2026年在纳什维尔推出自动驾驶出租车服务;同期谷歌宣布未来两年在英国投资50亿英镑以建设AI经济体系;与PayPal建立的全球线上购物合作伙伴关系,通过整合双方支付系统与AI工具,实现了智能体向交易环节的渗透。
CSP大厂根据TrendForce的最新调查显示,人工智能(AI)服务器需求的迅速扩张正推动全球云服务提供商(CSPs),如谷歌、亚马逊网络服务(AWS)、Meta、微软、甲骨文、腾讯、阿里巴巴和百度,加大对英伟达(NVIDIA)机架级GPU解决方案、数据中心扩建和内部AI专用集成电路(ASIC)设计的投资。预计到2025年,这八大主要云服务提供商的总资本支出将超过4200亿美元,大致相当于它们2023年和2024年的总支出,同比增长61%。
同时,TrendForce预测,随着2026年GB/VR系统等机架级解决方案的增长,八大云服务提供商(CSP)的总资本支出将达到新高,超过5200亿美元,同比增长24%。此外,投资重点正从创收资产转向服务器和GPU等生命周期较短的基础设施,这表明战略重点在于提升长期竞争力和市场份额,而非追求眼前利润。
2025年,受高于预期的需求增长推动,NVIDIA的GB200/GB300机架系统有望成为云服务提供商(CSP)的主要部署目标。除了北美领先的四家云服务提供商和甲骨文公司外,特斯拉/xAI、CoreWeave和Nebius等新兴客户也在增加对人工智能云租赁和生成式人工智能工作负载的采购。到2026年,云服务提供商可能会在后半年从GB300机架转向新的NVIDIA Rubin VR200机架平台。
国产大模型平台使用热度显著攀升。根据LLM接口平台OpenRouter上模型tokens调用量数据显示,国产大模型调用量激增,阿里最新大模型Qwen3模型调用量增长248%。从模型使用tokens占比来看,国产大模型智谱清言、阿里通义、deepseek排行前列。据沙利文数据,阿里通义日均调用量占17.7%,字节豆包日均调用量14.1%,Deepseek日均调用量10.3%。
企业端大模型赋能生产力,国内Agent渗透率有望加速提升。根据亿欧智库数据,2024年中国AI Agent市场企业渗透率不足5%。但随着AI Agent价值扩大及企业端开发市场成熟,2028年中国AI Agent市场规模有望达到3.3万亿元。
GB300打破AI算力天花板。破NVIDIA Blackwell Ultra“GB300”GPU,是截至2025年最快的AI芯片。GB300采用双十字线 TB/s,比GB200快50%。它使用两个十字线大小的芯片,并将它们与NVIDIA 的NV-HBI高带宽接口连接起来,从而作为一个整体单独的GPU。GPU高度集成,基于台积电4NP(针对 NVIDIA优化的5nm)节点,总共容纳2080亿个晶体管。NV-HBI接口为两个GPU芯片提供10 TB/s的带宽,同时作为单个芯片运行。
英伟达凭借Blackwell和Blackwell Ultra等工程技术优势,目前尚处于AI阶梯的顶端。未来希望华为等其他国产GPU有更长足的进度,以进一步在人工智能硬件基础设施层面有更多的沉淀。
三倍算力提升,Rubin发布进展顺利。Rubin单芯片推理算力达50 petaflops(FP4精度),较Blackwell Ultra性能提升3.3倍,该架构将采用288GB HBM4高带宽内存(8层堆叠),带宽13TB/s;Ultra版将升级至1TB HBM4e,与Vera CPU架构组成超级芯片系统。Rubin GPU和Vera CPU正在台积电先进的3nm N3P节点上生产,并采用CoWoS-L(带本地互连的晶圆上芯片)封装技术。互联技术采用第六代NVLink,带宽3.6TB/s,支持CPU-GPU异构集成(Vera CPU + Rubin GPU)。能效1200W TDP,液冷散热渗透率超90%。这种组合实现了超高密度计算封装,并显著提升了能效和互连性能。Rubin发布节奏预期为2025年6月tape-out,2025年夏季采样,台光7月审厂,8月Q布框架性协议逐步落地,首批硅片预计10月由台积电交付,2025年第三季度量产,工程样品计划于2025第四季度推出,2026年初公开披露,芯片与系统设计预计2026年3月定版,2026年第三季度量产及服务器机架开始爬坡。
从游戏显卡之王到AI计算巨头。FY2023是历史性的分水岭,英伟达数据中心收入(150亿美元)首次超越游戏业务(91亿美元),正式“加冕为王”。到了FY2025,数据中心占比已高达88.3%,公司彻底完成了从“游戏公司”到“AI公司”的蜕变。通过拆解其收入来源。按市场平台划分,我们可以清晰地看到从FY2023到FY2025数据中心占比的显著提升。
应用端带动算力需求,数据中心业务持续高增。从FY2025一季度开始到如今FY2026二季度,数据中心业务持续保持增长。从早期深度学习对Tesla GPU的需求,到近期生成式AI对H100和Blackwell平台的需求急剧提升,贯穿始终的最强驱动力是AI,AI应用的每一次爆发都直接转化为英伟达数据中心业务的指数级增长。英伟达在财报中很少披露具体的市场份额数字,通过英伟达在行业关键领域的渗透率可以清晰地反映出英伟达极高的市场占有率。在AI训练市场,行业普遍认为其市场份额超过90%。在数据中心业务内部,管理层在FY2024年报中开始强调“推理(Inference)”工作负载的贡献越来越大,估计占到了数据中心收入的约40%。这预示着AI正从模型“训练”阶段大规模走向“应用”阶段,为英伟达打开了比训练市场更广阔的推理市场空间。由于英伟达不披露GPU的出货量,我们无法精确计算其平均售价(ASP),但英伟达CUDA开发者的数量可以揭示其深厚的护城河,CUDA开发者数量在短短七年内增长了超过8倍,这个庞大且仍在高速增长的开发者社区是英伟达最珍贵的资产。
算力、网络、生态三轮驱动,从训练到推理的开启全球扩张。从2025财年第一季度(收入226亿美元,同比激增427%)到2026财年第二季度(收入411亿美元),英伟达数据中心业务的爆炸式增长源于其成功从“芯片供应商”转型为“AI生态构建者”。增长初期由全球云厂商对Hopper(如H100)及新一代Blackwell架构GPU的强劲需求驱动,其H200/B200芯片在MLPerf基准测试中表现亮眼。随后迅速演变为全栈式解决方案的协同发力:专为AI优化的Networking(如Quantum-X800、Spectrum-X800交换机)和软件(超过150家公司集成的NIM微服务)成为关键增长极。期间,业务动力从北美科技巨头扩展至全球主权AI与工业AI项目,例如在丹麦部署1,528个H100 GPU的超级计算机,以及与沙特、阿联酋合作建设Stargate UAE等下一代AI集群。同时,增长引擎从模型训练(如支持xAI配备10万个Hopper GPU的集群)延伸至大规模AI推理,Blackwell Ultra系统在单个节点上为GPT模型实现了每秒150万个Token的业界领先性能。最终,通过GB200系统的全面部署及与思科等伙伴的渠道合作,实现了训练与推理双轮驱动、软硬件生态共同货币化的可持续增长模式。
国产GPU的崛起,是外部压力、内生需求与政策频发共同作用下的必然结果,正开启一个不可复制的历史性窗口。1)长期以来,英伟达凭借CUDA生态垄断全球GPU市场,中国作为算力需求大国,95%以上的高端GPU依赖进口。随着大国博弈及其他外部环境变化影响,英伟达高端芯片(如H100、A100)对华出口受到限制,我们认为英伟达的芯片在中国GPU市场份额预期将下滑,随之而来的算力缺口是国产GPU的“黄金替代窗口”。据中商产业研究院测算,2025年中国GPU市场规模将达1200亿元,为国产GPU企业提供了广阔的替代空间。2)在大模型、自动驾驶及工业互联网等技术的共同驱动下,国内算力需求呈现出井喷式增长,其规模正呈指数级攀升。根据中国信通院,截止2025年6月底,我国在用算力中心机架总规模达1085万标准机架,智能算力规模达788EFLOPS(FP16),发布1509个大模型,GPU作为人工智能的算力基石,已成为国产芯片实现自主可控的战略制高点。3)政策层面,“十五五”规划明确提出加快集成电路关键技术攻关,推动计算芯片、存储芯片等创新,加快设计工具、重点装备和关键材料研发,且在地方政府如江苏提供财税金融与人才支持。政策组合拳为中国GPU产业构建了一个从研发支持、到成本降低、再到市场保障的完整闭环支持体系。
算力芯片属于算力产业链中的上游,半导体产业链中的中游。GPU产业链上游核心包括硅片、核心元器件、IP授权、制造设备与材料等核心环节。
国产GPU领域呈现出赛道多元的格局,各家企业正依据自身优势与对市场的判断,各展所长,走差异化发展路线。目前形成了以华为、寒武纪、海光信息为第一梯队,以沐曦、摩尔线程、壁仞科技等为第二梯队的竞争格局。这些企业通过差异化的技术路线和市场策略,实现了快速崛起。国内AI芯片主要是两类路线,分布式兼容或者构建自有生态,天数、摩尔线程、海光DCU以兼容Cuda为主,而寒武纪、昆仑芯、昇腾、燧原、算能、璧仞等则是构建自有软件栈。
从市场数据来看,IDC的统计显示,2024年我国自主研发的AI芯片在国内市场的份额已经攀升至30%,预计到2025年这一比例将突破50%大关,国产芯片的市场影响力正在快速提升。
英伟达主导,国产力量崛起。根据IDC 全球第三方权威数据机构发布的2024年中国加速计算芯片的出货报告,其中英伟达出货量占比70%超过190W片,国产AI芯片头部厂商排名出炉,华为昇腾64w、昆仑芯6.9w、天数3.8w、寒武纪2.6w、沐曦2.4w、燧原1.3w,其他品牌的销量均未过万。我们按照出货量推测国内厂商具体市场份额。
华为昇腾是全栈能力的领军者。华为昇腾芯片以达芬奇架构为核心,专注AI训练与推理芯片,构建“芯片-集群-生态”的全栈解决方案,具有算力密度高、集群扩展能力强的特点。华为昇腾系列芯片是国产替代的主力军,其市场份额从2023年的23%快速提升至2025年的28% 。华为的成功源于其全栈能力:在芯片层面,昇腾910C的算力达到800TFLOPS(FP16),性能达到英伟达H100的80%,但推理成本仅为后者的1/10。下一代展望:华为目前最新的型号是910C,整体上大概有英伟达最先进芯片B200(GB300 Blackwell Ultra2025年8月刚量产,且主要是提升显存)的三分之一(仅论单芯片的纯算力指标FP16/BF16)。2025年5月时候发布的920,原计划在2025年9月量产,今年9月18号举行的华为全联接大会2025上,华为公布了2026年Q1发布950PR,跳过了920、930、940的计划。
寒武纪提供端到端全栈AI芯片与算力解决方案,实现从终端设备到云端数据中心的全面覆盖。寒武纪的核心优势在于“全栈技术布局”与“规模化落地能力”,是目前唯一实现“云边端一体”的国产GPU企业。技术路线采用“软硬件协同+训推融合”架构,自主研发智能处理器指令集(Cambricon ISA)与微架构,核心技术壁垒高。2024年优化后的微架构针对自然语言处理(NLP)、视频图像生成等大模型场景,将算力效能提升30%以上,支持FP8低精度计算,适配千亿参数大模型训练。其思元系列产品在特定场景下展现出优异性能。思元370采用7nm工艺和Chiplet技术,集成390亿个晶体管,最大算力达256TOPS(INT8)。思元590的性能达到英伟达A100的80%-90%。下一代展望:寒武纪690采用了双Die封装设计,相较于上 一代的单Die架构实现了性能提升。在产品推出时间上,寒武纪690 预计将在2025年底推出。性能按照最近的测试,性能是H100的85%。这里面包括带宽算力等。
CPU-GPU协同的计算方案,海光信息是x86架构的稳健派。海光信息的DCU(Deep Computing Unit)产品基于x86架构,在生态兼容性方面具有独特优势。深算二号(DCU-Z100)的单精度算力达90TFLOPS,半精度算力180TFLOPS,性能达到英伟达A100的80%-90%;战略动向方面,海光与中科曙光换股吸收合并,形成“芯片-服务器-云计算-算力服务”全产业链。下一代展望:海光信息最新的DCU产品为深算三号,其对标英伟达NVIDIA A100。 深算三号在双精度浮点算力(FP64)、单精度算力(FP32)等核心指标上已接近A100的80%,并支持主流AI大模型训练与推理,兼容类CUDA生态,适配LLaMA、GPT等模型。下一代追赶目标:NVIDIA H100。海光已明确将H100作为下一代DCU产品的性能追赶目标,并在软件栈、算力密度、能效比等方面持续优化,以缩小与国际顶尖产品的差距。
沐曦是国产高性能通用GPU与国有资本“双先锋”,IPO启程在即。沐曦凭借“通用计算+国有资本背景”,成为国产GPU领域“最快实现规模化盈利”的企业,2025年10月进入上市审核阶段,有望成为“国产通用GPU第一股”。技术路线采用自主研发统一GPU架构,突破“高性能计算+AI训练”双场景兼容难题,其MXMACA软件栈兼容CUDA生态,可直接迁移英伟达GPU上的应用程序,解决了“生态迁移成本高”的行业痛点。沐曦的曦云C系列芯片采用7nm工艺,性能达到英伟达A100的75%。
摩尔线程采用全功能GPU与AI智算双轮驱动战略,核心引擎贡献超九成收入。摩尔线程以“全功能GPU”为核心,聚焦“消费级+企业级”双市场,2025年上半年AI智算产品收入占比高达94.85%,成为国产GPU中“AI场景渗透最快”的企业。
技术路线采用自主研发MUSA统一系统架构,集成图形渲染、AI计算、通用计算四大引擎;2024年推出的“平湖”架构原生支持FP8精度计算,AI算力较上一代提升2倍,可满足4K图形渲染与千亿参数大模型推理的双重需求。
壁仞科技凭借颠覆性的Chiplet技术,其世界级通用GPU正挑战算力巅峰。壁仞科技定位“高端通用GPU”,凭借Chiplet异构集成技术,推出性能对标英伟达H100的BR100芯片,成为国产GPU“技术天花板”的代表企业。技术路线采用Chiplet(芯粒)技术,将计算核心、存储单元、互连模块等拆分为独立芯粒,通过自研BLink互连技术实现芯粒间高速通信,BR100芯片算力达2000 TFLOPS(FP16),与英伟达H100相当,且功耗降低20%。
在硬件性能方面,国产AI芯片与英伟达的差距正在快速缩小,但在某些关键指标上仍存在一定差距。在高端训练芯片领域,英伟达H100仍然保持领先地位;推理芯片性能对比。在推理场景下,国产芯片的表现更加出色。实际应用性能表现中,单纯的理论性能并不能完全反映芯片的实际表现,在实际应用中,软件优化、系统设计等因素同样重要。根据多家机构的测试,在特定应用场景下,国产芯片的实际性能表现令人惊喜。我们认为AI芯片产业的发展离不开整个产业链的协同,从上游的设计工具、制造设备,到下游的应用开发、系统集成,每个环节都至关重要。
高功耗AI芯片加速液冷普及,冷板方案是数据中心主流。1)Blackwell Ultra芯片功耗大幅提升,推动液冷成为必然选择。英伟达最新发布的单颗Blackwell Ultra芯片的功耗高达1.4kW,NVL72方案单机架整体功耗将达到120-130kW,传统风冷系统已无法满足散热需求,液冷技术成为趋势。2)液冷市场需求保持逐年增长状态,冷板式液冷和浸没式液冷是行业内目前共存的两条主流技术路线。考虑到技术成熟度、可靠性、技术通用性、结构颠覆性等多个方面,当前液冷数据中心仍以冷板式液冷占据主流地位。
政策驱动与算力时代双轮推动液冷产业爆发。渗透率仍处早期,液冷有望迎来快速放量增长。根据TrendForce预测,2025年液冷在全球数据中心的渗透率将从2024年的10%增长至20%以上,虽然风冷在存量市场仍占主导地位,但在算力需求提升、节能减排的社会目标下,液冷正在成为芯片/机架级冷却的主流解决方案。根据北京科智咨询公司和中国信通院联合发布的《中国液冷数据中心市场深度研究报告》数据显示,近年来,中国液冷数据中心市场快速发展,2019-2022年年复合增长率达到39.7%。2022年,液冷数据中心市场规模达到100.5亿元,同比增长47.2%。预计在2023-2027年期间,中国液冷数据中心市场将以59%的复合增长率持续蓬勃发展。2027年液冷数据中心的整体市场规模预计将达到1020亿元。根据MarketsandMarkets数据,2024年全球数据中心液冷市场空间约19.6亿美元(约合人民币140.7亿元),预计2025年全球数据中心液冷市场有望达28.4亿美元(约合人民币203.9亿元)、同比高增44.9%,并预计至2032年液冷市场规模有望提升至211.4亿美元(约合人民币1517.7亿元),2025-2032CAGR33.2%。我们认为液冷市场主要的驱动来自AI、云计算、高性能计算发展,带动高密度算力计算需求,驱动数据中心转向散热效率更高的液冷方案。
政策红利释放,液冷技术正加速成为数据中心标配配置。政策层面,中国“东数西算”工程明确要求新建数据中心PUE需低于1.25,北上广深等一线城市更进一步要求新建智算中心液冷机柜占比超50%。行业预测到2025年底,50%以上的数据中心新项目将采用液冷技术,使得液冷技术在数据中心制冷领域的应用前景广阔。国际层面,欧盟《能效指令》将液冷纳入数据中心能效认证体系,微软Azure通过浸没式液冷将PUE优化至1.02,年节能超500万美元,带动全球液冷技术广泛推广。
液冷具备显著散热优势,成为高功耗 AI 芯片稳定运行的关键保障。面对AI芯片功耗持续上升挑战,液冷凭借是风冷20倍以上的换热系数,可将芯片核心温度控制在65℃以内,保障GPU满负荷稳定运行,成为数据中心扩容和AI部署的底层支撑。液冷技术可以分为直接接触式和间接接触式两种。直接接触式包括单相浸没式液冷、两相浸没式液冷、喷淋式液冷;指将冷却液体与发热器件直接接触散热。间接接触式包括单相冷板式液冷、两相冷板式液冷;指冷却液体不与发热器件直接接触,通过散热器间接散热,室外侧包含室外冷源、一次侧冷却液,室内侧包含冷量分配单元(CDU)、二次侧冷却液以及液冷机柜。其原理是:二次侧冷却液在机柜内吸收设备热量,并通过CDU内的换热器将热量传递给一次侧冷却液,一次侧冷却液通过室外冷源最终将热量释放到大气环境中,完成散热。
液冷市场定制化为主,集中度低。基于QYresearch数据,全球数据中心液冷需求集中在亚洲和北美,2023年占比约37%;从产品类型看,冷板式液冷为主流技术方案。从供应格局看,2023年全球数据中心主要液冷技术提供商包括维谛技术、世图兹、MidasImmersionCooling、德国威图、深圳市英维克、CoollT、施耐德电器等,CR5占比约40%,单一企业份额不超过15%,由于液冷技术方案相对偏定制化,整体市场偏分散、集中度偏低。在未来rubin上,由于技术的巨大变化,我们认为现有在GB200及GB300液冷板的市场份额可能会发生改变。产业链上游为核心零部件与材料包括冷却液、导热界面材料、冷板、CDU、快接头;中游为系统集成&整机制造;下游为数据中心、云厂商、AI与超算用户。
Blackwell芯片放量加速液冷渗透,产业链企业迎来新一轮成长窗口。英伟达Blackwell系列芯片的持续出货正成为液冷普及的重要推手。预计2025年Blackwell将占其高端GPU出货的80%以上,尤其是GB200、GB300等平台对液冷依赖度更高,进一步拉动下游液冷配套需求。这一趋势为国内液冷产业链带来结构性成长机会,零部件供应商订单可期,产业发展前景愈发明朗。GB300采用小型液冷板,GB200采用大型液冷板。目前液冷板的结构和材料大致相同,主要是在冷板内部的流道设计上下功夫,通过增加流动面积、提高流体流速等方式,配合水冷头高效带走芯片产生的热量。当前,GB300采用的液冷板是铲齿工艺产品,原材料以铜材为主,制造工艺和精度已十分成熟。
随着英伟达最新推出的Rubin与下一代Feynman平台的功耗预期将突破2000W,现有的散热方案已难以满足这一需求。因此,英伟达向其供应商提出要求,开发全新的“微通道水冷板(MLCP)”技术,其单价是现有散热方案的3至5倍,相应价值量也随之提升,水冷板和均热片正成为新的“战略物资”。MLCP技术通过将传统上覆盖在芯片上的金属盖与上方的液冷板整合,内嵌微通道设计,使液冷散热冷却液能够直接流经芯片表面。此技术减少了中间介质的使用,缩短了热传递路径,从而显著提高了散热效率,并有效压缩了散热系统的体积。简单来讲,就是将冷却结构集成到芯片盖板上,在盖板内部打造出众多微小的流道,这些流道如同人体的毛细血管或是树叶的筋脉。如此一来,冷却液能够紧贴芯片GPU表面流动,从而有效带走热量。相较于传统的单相液冷板,这种设计不仅效率更高,而且结构更为紧凑。与传统的芯片散热方式相比,其核心原理在于减少了界面热阻的干扰,传热路径缩短了50%以上,散热效率提升了4 - 7倍,能让冷板更高效地导出芯片产生的热量。我们认为微通道技术有望成为新技术路线。
微通道技术主要存在三大难点。1)加工精度要求高。微通道冷板中的微通道尺寸是非常小的,只有几十微米,这个对加工精密度的要求非常之高。2)洁净度要求高。微通道冷板在加工过程中,对洁净度的要求极为严苛。通常,一般液冷系统需达到10万级洁净度标准,而微通道冷板的洁净度要求远高于此。由于微通道尺寸极为微小,即便存在肉眼难以察觉的微小异物,都可能导致微通道堵塞。这不仅会显著降低换热效率,甚至可能直接对芯片造成损伤。因此,微通道冷板在制造过程与环境管控方面的难度,呈指数级增长。3)大规模量产难。当前,相关技术工艺尚难以达成大规模生产的目标,现有的生产工艺与路线亟待重新梳理、优化及改进。尤其是芯片与微通道的焊接环节,对精度和洁净度的要求近乎严苛,同时,整个生产过程能耗巨大、成本高昂。
今年8月下旬,英伟达与台湾省部分散热大厂及外资厂商召开了一系列内部讨论会,开始密集探讨下一代Rubin GPU采用微通道冷板技术的可能性。就技术成熟度而言,当下最成熟的当属单相冷板技术,双相冷板和浸没式液冷技术次之,而MLCP技术目前成熟度较低,基本还处于研发阶段,需要一段时间来积累和完善。从产业链角度看,普遍认为可能要等到Rubin Ultra推出时,MLCP技术才有可能实现大规模应用。尽管MLCP技术在制造和密封方面难度大幅增加,成本也比普通液冷板高出10倍,但其散热性能可达传统冷板的4 - 7倍。目前无论是生产IC盖板的厂家,还是制造液冷板的厂家,都在全力研发MLCP技术,意图快速抢占这一高端应用市场的先机。
AI服务器驱动 PCB 高端化,HVLP铜箔成为最大预期差。近年来,生成式 AI、大模型训练与推理对全球算力基础设施提出了更高的性能要求。以 Google、Meta 等为代表的头部科技企业不断扩充其 AI 数据中心,推动 AI 服务器、网络交换机、专用 ASIC 加速芯片等算力核心设施加速换代升级。这一轮 AI 算力革命不仅带动了下游超大规模数据中心的快速建设,也从根本上重塑了上游 PCB、CCL 与HVLP铜箔迭代逻辑。
AI服务器与高速互联推升高端PCB需求,AI大模型训练和推理场景对算力性能提出更高的要求,正成为全球PCB行业新的结构性增长引擎。根据Prismark数据,2024年全球服务器/数据存储领域PCB市场规模为109.16亿美元,同比增长33.1%,远超PCB其他应用领域增速;预计2029年全球服务器/数据存储领域PCB市场规模将达到189.21亿美元,2024年-2029年将以11.6%的复合增长领跑PCB其他应用领域。AI服务器与网络交换机持续迭代更新,为PCB产业链带来确定性放量机会。
从技术维度看,AI服务器与分布式算力集群对PCB提出了更高的层数与布线密度要求,多层板、HDI板、背板及先进封装基板成为高端PCB的重要组成。当前,我国多层板在PCB产值结构中占比已超过40%,HDI板占比约16.6%,且在高算力场景下,先进封装基板如ABF载板等新型高端PCB应用正加速渗透。
AI服务器集成度与功耗提升,正加速推动PCB高端化。以NVIDIA新一代AI服务器GB300 NVL72为例,该系统集成了72颗Blackwell Ultra GPU与36颗基于Arm Neoverse架构的Grace CPU,构成超高密度的计算单元,专为支持大模型在推理阶段的任务拆解与复杂响应设计。官方数据显示,HGX B300 NVL16在推理速度上较上一代Hopper架构快11倍,算力提升7倍,显存容量提升4倍,整机功耗与信号频率同步上升。此类高性能AI服务器对PCB的信号完整性、布线密度与散热能力提出极高要求,带动HDI、刚挠结合板、高导热材料等高端PCB方案的加速渗透。
PCB高端化推动的上游CCL向高端化演进。随着AI大模型、数据中心和高性能网络设备的迅猛发展,算力硬件迎来高带宽、低延迟、强散热的新需求,PCB作为核心连接与传输平台,逐步迈向高频、高速、多层次的高端化方向。尤其在AI服务器主板、背板与高速光模块中,PCB被要求支持高速差分信号传输、控制串扰与信号反射,传统材料已难以胜任。在这一背景下,作为PCB核心材料的覆铜板(CCL)成为产业链向上传导的第一受益者,其介电性能、热稳定性与机械强度面临全方位升级。目前,高端AI服务器所用的背板PCB通常需具备20层以上的复杂叠层结构,这对CCL的介电常数(Dk)与介电损耗(Df)提出严苛要求。覆铜板作为PCB基材,决定整体结构性能。CCL是由绝缘基材(如环氧树脂玻璃纤维布)与上下铜箔压合而成,是PCB制造中最关键的原材料之一。从成本结构来看,CCL在PCB原材料中占比最高。中商情报网数据显示,覆铜板、半固化片、铜箔合计成本占比超过40%,其中CCL承担结构支撑、电气隔离与热传导三重任务,其性能直接决定PCB的信号完整性与系统可靠性。
中国已构建起全球最大CCL产能。中商产业研究院数据显示,2023年中国覆铜板产量已达10.2亿平方米,预计2025年将增长至11.7亿平方米,占据全球主要市场份额。但整体仍以中低端刚性CCL为主导,专注高频高速产品的企业占比仍偏少,技术提升空间广阔。
CCL高频高速化趋势推动HVLP铜箔性能边界重塑。CCL在高端PCB中对铜箔性能提出更高要求,成为HVLP铜箔技术迭代的首要驱动因素。高性能CCL一般由玻纤布、环氧树脂和铜箔复合而成,其中铜箔的质量直接影响CCL的传输性能 。当前市场主流高性能CCL产品,均要求匹配超低粗糙度、高结合力的HVLP铜箔以确保整体介电性能的稳定。在高速差分信号等需求下,传统铜箔因其粗糙表面可能造成信号反射与串扰问题,成为信号完整性设计的瓶颈。HVLP铜箔以其Ra值控制在2μm以下的优势,成为满足高性能CCL所需电气性能的关键技术材料。换言之,CCL的高端化已不再只是树脂或玻纤系统的升级,更是对所配套铜箔材料性能的结构性重构,铜箔从“普通配角”转为“性能底座”。
目前全球高端铜箔70%被日韩台企业垄断,三井、古河凭借添加剂配方和阴极辊设备具有垄断性地位。日本:古河、三井垄断HVLP4/5代(占HVLP市场40–50%),主导载体铜箔; 中国台湾:金居、长春化工占RTF市场50.8%,HVLP份额不足30%; 欧洲:卢森堡CFL(被德福收购)为全球高频铜箔市占率第一,唯一非日系高端供应商。 因此,AI需求倒逼国产替代,国内德福科技、铜冠铜箔、隆扬电子凭借各自优势已经开始逐步打破垄断,HVLP加工费从普通铜箔的1-2万/吨飙升到20万/吨,利润非常可观,如德福科技收购了卢森堡一家高端铜箔公司,国内企业在高端场景份额逐步提升。
国产HVLP铜箔构成最大预期差,放量验证有望驱动业绩与估值重估。国产HVLP铜箔受限于技术壁垒与验证周期,仍处于放量前夜,是整个PCB高端材料链条中最大的预期差所在。在CCL厂商高性能化需求牵引下,国内铜箔龙头企业正加快技术研发与客户导入节奏,力图打破海外厂商在高端铜箔领域的垄断地位。
铜箔行业正站在技术升级的关键节点,AI计算需求的爆发为高端铜箔创造了前所未有的市场机遇。 具备技术进步潜力和市场开拓能力的国内企业,有望打破进口技术垄断,实现高端铜箔国产替代。
技术变革驱动存储需求质变。AI从训练转向推理意味着计算模式从批量处理转向实时交互,这对存储系统的带宽和延迟提出了近乎苛刻的要求。传统DRAM面临的“存储墙”问题——即内存存取速度严重滞后于处理器计算速度——在AI推理场景下被急剧放大,尤其是处理长文本序列和KV Cache(键值缓存)时,直接导致“推不动、推得慢”的产业瓶颈。HBM技术通过3D堆叠和硅通孔(TSV)工艺将多个DRAM芯片垂直集成,实现了远超传统内存的带宽(HBM3每堆栈带宽高达819 GB/s),从而成为支撑AI推理工作负载的关键。
需求端的结构性爆发与供给端的刚性约束形成尖锐矛盾。IDC数据显示,到2027年中国用于推理的算力工作负载将达72.6%,这种需求不仅体现在量上的增长,更本质的是对存储性能要求的跃升。
然而,供给端却面临多重制约:HBM极高的技术壁垒和资本开支门槛使得全球市场由三星、SK海力士等寡头主导,且美国出口管制政策直接限制HBM2E及以上产品对华出口,掐断了高端供给渠道。同时,主要存储原厂在经历前两年亏损后资本开支谨慎,主动削减DDR4/LPDDR4等低端产能(三星、美光等厂商计划停产DDR4),更倾向于将产能和投资转向利润更高的HBM和DDR5,这直接挤占了传统DRAM和NAND的产能分配,三星为争夺HBM4市场份额甚至将更多传统DRAM产能转向HBM。
产业链的直接表现是存储价格进入全面上涨周期,且不同品类分化显著。本次产能转向导致中低端存储供给急剧收缩,例如DDR4价格在2025年第二季度涨幅达40%-50%,而HBM产能已被OpenAI等巨头长期锁定,进一步挤压通用存储芯片的供应空间。同时,HDD供应链因希捷、西数投资不足陷入刚性瓶颈(交期长达40周以上),迫使云厂商将约30%的需求转向QLC SSD,瞬间引爆NAND市场;供给端的结构性收缩与需求端的不可替代性增长共同作用,推动存储价格进入超级周期,2025年第三季度DRAM现货价环比上涨78%-197%,NAND现货价涨幅达52%-76%。综上,AI驱动的存储技术代际更迭已彻底颠覆传统供需平衡,原厂战略聚焦高端产品导致整体产能增长克制,而推理需求的爆发性增长则使存储市场从周期波动转向结构性短缺。由于存储占AI服务器总成本不足10%,云厂商对价格敏感度较低,不会因存储涨价而推迟AI基础设施建设,因此我们判断这种结构性紧张态势预计将比以往的上涨周期更加持久。
历史复盘:周期属性强,但本轮AI驱动持续性更强。存储行业周期属性显著。存储芯片是半导体行业中第二大细分市场,周期波动性显著,核心源于:1)高度标准化的产品属性;2)寡头垄断的供给结构;3)需求端的强周期性;4)技术迭代;5)产能调整的滞后性共同作用,导致供需失衡频繁发生且幅度远高于半导体其他细分领域。
复盘近15年,存储行业已历经四轮完整周期,每一轮上涨均由特定技术革命或需求结构性变化驱动。当前,AI算力需求正推动行业进入第五轮“超级周期”,其持续性与强度有望超越历史水平。
该轮周期的上涨始于2012年,核心驱动力是移动互联网的快速普及和智能手机的渗透率爆发。4G网络的推广催生全球换机潮,智能手机出货量从2012年的7亿部跃升至2015年的14亿部,推动单机存储容量从平均4GB提升至8GB以上。存储需求的核心增量来自手机内存(LPDDR)和嵌入式存储(eMMC),其中DRAM位元需求年增长率达25%。然而,2014年后三星、海力士等巨头大幅扩产导致供给过剩,价格于2014年下半年见顶回落,周期进入下行阶段。
2016年起,互联网云厂商(如亚马逊AWS、微软Azure)加大数据中心投资,叠加比特币挖矿需求爆发,服务器出货量同比增长超20%。存储需求结构从消费电子转向企业级,服务器DRAM占比从2016年的25%升至2019年的35%。2017年,DRAM厂商将部分产能转向3D NAND,引发供需错配,DDR4价格年内涨幅超100%。但2018年后,手机和服务器需求疲软,叠加原厂扩产,价格快速下跌,周期于2019年触底。
新冠疫情催生远程办公和在线教育需求,PC及平板电脑出货量在2020年分别增长12%和13%,服务器需求同步激增。同时,5G手机普及推动单机存储容量向12GB以上演进,NAND位元需求增长率在2021年达30%。供给端受疫情冲击,晶圆产能紧张,导致2022年初存储价格见顶。但随后消费电子需求骤降,库存高企,价格持续下行至2023年底。
本轮上涨的驱动逻辑发生本质变化:AI服务器成为需求核心,其存储配置量为传统服务器的3-5倍,HBM因高带宽特性成为GPU标配。2024年HBM价格同比上涨80%,DDR5渗透率在服务器领域超85%。供给端,三星、美光等将产能转向HBM和DDR5,导致DDR4产能削减20%,价格倒挂现象显著(DDR4现货价较DDR5高出48%)。AI从训练向推理阶段扩展,推动企业级SSD需求增长50%以上。
受益于存储市场供需关系的根本性扭转,海外闪迪美光股价强势上行。2025年8月至2025年10月27日,美光科技与闪迪股价强势拉升,分别上涨109%、350%。美光与闪迪的股价表现直接受益于存储市场供需关扭转。供给端,三星、SK海力士等原厂将产能加速转向DDR5、HBM等高利润产品,传统DDR4及利基型存储产能削减导致阶段性缺口:三星计划停止DDR4量产,SK海力士将DDR4产能压缩至20%。需求端,AI数据中心资本开支激增成为最大变量,2025年云服务商将资本支出提升180亿美元,直接推高存储采购需求。价格层面,DRAM合约价三季度涨幅达28%-90%,NAND Flash价格环比上涨5%-10%,2025年四季度预计将进一步上调。
AI大模型训练与推理产生的海量数据流是存储需求的核心引擎。Token消耗量级已成为衡量存储需求的直接指标:北美云服务商(如微软、谷歌)日均token调用量已突破万亿级别,且多模态模型(如Sora)普及使单次请求数据量从KB级跃升至GB级,对存储带宽与容量的需求呈指数增长。具体而言:
•训练阶段:LLM训练语料库容量需PB级存储支撑,企业级SSD成为刚需。例如,OpenAI“星际之门”项目月均消耗相当于90万片DRAM晶圆,三星已为其专项供应。
• 推理阶段:KVCache(注意力计算中间状态缓存)需高频访问DRAM,单台AI服务器内存配置为通用服务器的2倍以上,此类需求推动企业级SSD市场快速增长。
2025 年第三季度,OpenRouter 的 tokens 调用总量相比上个季度继续增长,9 月份每周平均消耗超过 4T tokens,大约是上个季度周消耗的两倍,其表面AI 推理市场仍在高速增长。
端侧AI硬件渗透率提升将承接数据中心需求,成为存储市场下一爆发点。1)设备增量:AI PC、AI手机、AR/眼镜等终端2026年预计全面放量,推动LPDDR5X、UFS 4.0等高端存储产品需求。例如,Meta AI眼镜新品推动存储容量升级,AI手机DRAM配置从8GB向16GB跃迁。技术适配:四级单元(QLC)SSD因容量与成本优势成为端侧AI存储方案首选,铠侠与英伟达合作开发的高速SSD读取速度较传统产品提升近百倍。端侧市场与数据中心形成协同:AI推理任务逐步下沉至终端,减少云端负载的同时催生边缘存储需求,2025年端侧存储市场规模增速预计达20%。
端侧AI硬件渗透率的快速提升正成为存储市场的新增长引擎,推动产业从“云端优先”向“云边端协同”演进。这一趋势由明确的设备增量、适配的技术路径以及协同的产业生态共同驱动。1)市场由具体的设备增量所驱动。AI PC、AI手机、AR/眼镜等终端预计在2026年全面放量。例如,SK海力士预计2025年AI PC和AI手机的渗透率将分别达到30%-40%和约30%,而IDC预计2025年中国智能眼镜出货量将达284.6万台,同比增长116.4%。这些设备对实时计算和本地化AI处理的高要求,直接推动了对LPDDR5X、UFS 4.0等高带宽、低功耗存储产品的需求。AI手机的DRAM配置正从8GB向16GB乃至更高容量升级,以支持更复杂的端侧AI应用。2)在技术路径上,存储方案正针对端侧场景进行深度适配。为平衡性能、容量与成本,四级单元(QLC)SSD因其容量优势成为端侧AI存储的首选方案。同时,存储厂商正与芯片巨头紧密合作,例如铠侠与英伟达联合开发的高速SSD,其读取速度较传统产品有近百倍量级的提升,以满足端侧AI模型加载和数据处理对极致速度的要求。此外,低功耗的LPDDR5X内存也与端侧设备的续航需求高度契合。
3)端侧与数据中心形成了协同发展的产业生态。AI推理任务正逐步从云端下沉至终端设备,这不仅能减轻云端数据中心的负载、降低延迟,还催生了对边缘侧专用存储的新需求。这种“云边端”协同计算模式,使得端侧存储市场成为一个具有独立增长逻辑的赛道。
我们判断存储此轮股价上涨仅仅为第一波,若端侧起量,存储(存力)有望复制GPU(算力)的股价表现,核心在于供需格局与技术迭代的相似性。1)供需对比:算力板块受H100/B100需求驱动,存储则因HBM、DDR5短缺迎来涨价周期;2)当前HBM价格年涨幅20.8%,高带宽产品单价达500美元(较HBM3e高60%),利润空间对标高端GPU。3)产业链传导:原厂(三星、美光)→模组厂(江波龙、佰维存储)→设备商(中微公司)的估值提升路径与算力产业链(英伟达→台积电→封测)相似。
自ChatGPT发布两年多以来,移动端AI的需求增速日益迅猛。2025年上半年,全球生成式AI应用(涵盖AI助手和AI内容生成器)的下载量接近17亿次,应用内购买(IAP)收入高达近19亿美元。 更值得注意的是,下载量和IAP收入的半年度环比增长率( HoH )仍在持续攀升。2025 年上半年,下载量环比增长 67% ,创下自2023年上半年以来的最快增速。IAP收入也呈现出类似的强劲态势,消费者在2025年上半年的支出,相较 于2024年下半年实现了翻倍增长。
在竞争日益激烈的市场中, DeepSeek于2025年1月强势发布,凭借更低的资源需求媲美顶尖AI模型。与此同时,Grok和Meta等新兴AI应用也表现出色,这表明自ChatGPT 和Nova等早期应用问世以来,市场对 AI 聊天机器人的需求在短短几年内已大幅扩张。截至 2025 年 6 月底, ChatGPT 以 9.4 亿次 的累计下载量稳居榜首, Google Gemini 和 DeepSeek 则分别以 2 亿和 1.27 亿次的累计下载量 位列其后。我们认为,AI大模型的调用情况预示着未来AI应用的崛起,建议重点关注:AI+医疗、AI+金融、AI+教育。
当AI与医疗深度融合后,呈现出智能化、高效化、便捷化的显著特征。在智能化方面,借助大数据与人工智能可实现智能诊断,综合患者各类数据给出个性化方案;智能治疗能依据患者实时数据调整治疗策略;智能管理则可优化医疗资源配置。高效化体现在对医疗流程的优化,减少患者等待时间并预防潜在问题,同时助力医护人员提升工作效率,如便捷的病历与药品管理。便捷化使得患者可随时通过手机APP等获取医疗服务,包括在线咨询、远程诊断,还能利用自助设备及手机应用完成挂号、缴费、查询结果、预约手术等操作。
人工智能在医疗领域的多元应用和全面图景包括:(1)赋能医疗服务众多环节,涵盖就医前的健康管理(健康评估与疾病预警)、诊前医疗数据积累分析、诊中的取号导诊排队、病历录入、多种影像分析、辅助及临床诊断、医保支付、电子病历生成、手术机器人操作、药物临床辅助决策、诊后的术后院内康复与健康追踪以及就医后的康复管理、随访回访、就诊记录管理系统等,还涉及医学文献翻译与医学教育等其他应用。(2)在提升医疗效率和质量方面,助力医疗知识库快速积累并推动模型持续学习迭代,减轻医生重复性工作负担使医生可专注临床,实现就医医疗流程的规范化标准化以降低人为操作风险,达成基层医疗机构远程会诊从而提高服务覆盖率。AI医疗较为成熟的领域包括影像(病理影像、内窥镜影像等多类影像)、制药、机器人、临床决策系统、基因检测、智慧病理等领域。
目前,AI在医疗服务中的应用主要集中在提升医疗服务阶段环节的局部效率,但复合型及流程性任务是未来方向。在促进健康、预防疾病、诊断疾病、控制病情、治疗疾病和康复护理等环节,AI应用主要集中在其特定医疗服务节点,能够提升这些具体环节的效率和效果;例如,在诊断环节,AI影像能够提升平均5%的效率,节约约15分钟;在治疗环节,手术机器人可帮助平均时间缩短30%。
我们认为,目前AI在医疗领域的渗透还处在早期,未来还有很大空间,相关公司:晶泰控股、讯飞医疗、润达医疗、华大基因、金域医学。
在AI+金融市场,作为需求主体的金融机构拥有更多话语权,一个金融科技采购项目通常会有多个供给侧玩家参与其中。 AI+金融市场供给侧玩家可分为金融科技子公司、AI企业、智能硬件企业、互联网大厂四类。在面对中小金融机构客群时, 四类玩家呈竞争关系,大量中小金融机构并未成立自己的科技子公司,但机构间业务竞争激烈,为避免业务竞争中落伍, 更倾向于外购AI产品和解决方案;在面对头部金融机构客群时,由于金融科技子公司的独特地位与资源优势,其他三类玩 家更倾向于联合金融科技子公司拓客,此时竞争主要在其他三类玩家之间展开。
我们认为,AI金融未来市场发展空间较大,相关公司:九方智投、华泰证券、讯兔科技(非上市)。
在过去几十年的工业化进程中,我国教育体系主要围绕规模化、标准化、集中化的普适教育模式,为快速发展的工业社会培养大量标准化人才。这一教育模式在特定历史阶段发挥了重要作用,有效支撑了国家的经济建设和社会发展。然而,随着中国经济社会进入高质量发展转型期,传统的教育范式已难以满足日益复杂、多元的社会发展对创新性人才的迫切需求。 面对这一挑战,我国教育行业一直在持续推进深层次变革。在保持规模化、普惠教育基本盘的同时,积极探索教育的个性化、差异化路径,不断提升教育质量和育人效能。人工智能技术的快速发展为教育变革提供了技术支撑和创新空间。近年来,AI+教育的融合与实践已经从概念和尝试阶段,逐步进入到更加深入、系统的发展阶段。
在现代教育中,随着对学生个体差异的重视程度不断提高,教育理念和方法正经历深刻变革。大模型可为个性化教育提供有力的技术支撑,使得为不同学习能力和进度的学生(例如从小学到中学)量身定制学习计划。 此外,大模型还可以深入分析各类学生的学习数据,包括学习速度、理解能力、兴趣爱好和知识盲点。通 过精密的数据分析,这些模型能够为每位学生制定符合其需求的学习路径,确保他们在适合自己的节奏下高效 学习。这种个性化的学习方式不仅可以提升学习成绩,还能激发学生的学习兴趣。同时,基于AI的辅导工具也成为自主学习的重要助手。这些工具能够帮助学生完成作业并及时给予反馈 和指导。在学生遇到困难时,AI能够给予具体的解题方法或步骤解释,并提供相关的学习资源,使学生能够更快地消化和吸收知识。 随着技术的进步,大模型在个性化教育中扮演的角色越来越重要。不仅可提供随需应变的学习模式,还 可为学生创造支持性和互动性的学习环境,从而帮助学生在学习过程中不断成长。这不仅革新了教育方式,也为学生的未来发展提供了更广阔的空间。整体来看,人工智能在学生成长领域的应用场景主要包括:个性化学习规划、英文翻译、拍照解题、错题记录知识点巩固、特殊教育场景及心理支持。
国产链人形机器人是最大预期差。从产业链发展效应来看,当前T链产业链相对成熟,供应商相对拥挤,预期进展到量产实现以及降本、提升智能化(软件定义硬件)阶段,而国产链人形机器人目前大部分还处于0-1阶段,预期差相对更大。
根据TrendForce集邦咨询数据,中国市场已有11家主流人形机器人本体厂商在2024年开启量产计划,其中有6家如宇树科技、优必选、智元机器人、银河通用、众擎机器人、乐聚机器人等厂商对2025年量产规划超过千台。特斯拉计划在2026年第一季度发布第三代Optimus(V3)量产意向原型机,并致力于建设最终实现年产能百万台的生产线,预计头部本体厂商的量产计划将拉动中国市场人形机器人零部件供应链生态布局与完整性。
宏观层面:2025年3月5日发布的《政府工作报告》首次提及“具身智能”、“智能机器人”,这表明国家高度重视人形机器人发展。其中,人形机器人是“具身智能”、“智能机器人”的典型代表,近两年来快速发展。在各地区的2025年《政府工作报告》中,人形机器人相关内容也成为了高频热词,可见,“人形机器人”成为发展新质生产力的重要代表领域之一,有望重塑国内AI生态。
中观层面,产业基金大量涌入人形机器人:目前已有北京、上海等10多个地方政府建立和筹备建立产业基。
