【国盛通信】智驾提速,算力下沉
2024-12-01 10:26
吉时通信
2024-12-01 10:26
订阅此专栏
收藏此文章

摘要

【现状:算力加速提升,智能驾驶加速发展中】


L2 成为市场主流,渗透率逐步攀升。智能驾驶技术的快速进步,尤其是 L2 及以上级别的系统,主要源于近年来计算能力的提升、传感器技术的成熟以及 AI 算法的优化。自 2021 年起,随着自动驾驶硬件成本的下降、数据处理能力的提升以及行业法规的逐步放开,自动驾驶技术的商用化进程加快,L2 级别的自动驾驶系统逐渐成为主流配置,大多数中高端车型,包括特斯拉、奔驰、宝马等已经开始标配 L2 系统。L2+ 和 L2++ 功能是 L2 的进一步增强,增加更多的高级功能,如自动变道、自动泊车、交通拥堵辅助等,目前渗透率相对较低。L3 级别在特定条件下可以实现完全自动驾驶,驾驶员仅需在系统无法应对时介入,目前还处于试验阶段,全球范围内的渗透率较低,主要出现在自动驾驶出租车、封闭区域或部分测试车队中。


【当下热点:NOA 和 L2】


NOA 推动了 L2 到 L3 的过渡,成为智能汽车和自动驾驶领域的核心竞争力之一。NOA(Navigate on Autopilot)是自动驾驶领域的升级功能,最早由特斯拉推出,特斯拉的 Autopilot 和 FSD 套件中包含了城市 NOA 和高速 NOA 的功能,目前的高速 NOA 提供自动巡航、自动变道、超车、自动进出匝道等功能,城市 NOA 需要在高精度的地图、实时数据和感知能力上具备更高的要求,能够处理交叉口、红绿灯、行人等动态交通情况。目前 NOA 技术的渗透率整体处于上升阶段,没有广泛普及到所有车型,主要集中在高端电动车和一些配备 ADAS 系统的传统豪华车上。


【智驾热点背后:算力应用场景的落地与需求的扩大】


随着 L2、高速 NOA 和城市 NOA 等技术的逐步商用化,对算力(尤其是边缘侧算力)的需求也在持续扩大。从 L2 到 NOA 的升级,不仅仅是软件和算法的进步,更是硬件计算能力的不断提升,从最初的传统车载计算平台到如今需要高性能 GPU、AI 芯片以及云端计算的支持,算力已经成为智能驾驶技术落地的关键因素:


  • 算力应用场景的扩展:随着算力的逐步普及和进步,未来的智能驾驶将不再局限于高端车型,而是逐步渗透到更多中低端车型中,比如越来越多的中端车型将开始配备 L2+ 或高速 NOA 系统和城市 NOA 系统,应用场景将会伴随车企竞争而加速拓宽,智驾有望成为未来车企竞争的核心力之一。


  • 算力总需求的扩大:一方面,智驾落地加速,智驾系统需要实时处理来自传感器(如摄像头、雷达、激光雷达等)的大量数据并迅速转化为驾驶决策,远程云计算具备网络延迟风险,因此边缘算力成为核心需求;另一方面,随着智驾系统功能逐步扩展,处理的数据量和计算复杂度也会增加,尤其是在处理复杂的城市交通场景时,需要对对动态障碍物、路况变化、交通信号等进行实时分析,会消耗大量的计算资源,因此,随着智驾的提速,车辆端的边缘算力需求也将大幅上升。


综上,我们坚定看好算力板块,未来伴随着下游各领域应用场景的加速落地,无论是 AI 侧还是边缘侧的算力需求都会呈现指数级上升趋势,因此当下时点,我们依旧看好“易中天”为代表的光模块龙头,同时建议重视边缘算力尤其是智驾相关领域的发展,建议关注华测导航、美格智能、海格通信、广和通、慧翰股份等。


建议关注:

算力——

光通信:中际旭创、新易盛、天孚通信、太辰光、腾景科技、光库科技、光迅科技、德科立、联特科技、华工科技、源杰科技、剑桥科技、铭普光磁。铜链接:沃尔核材、精达股份。算力设备:中兴通讯、紫光股份、锐捷网络、盛科通信、菲菱科思、工业富联、沪电股份、寒武纪。液冷:英维克、申菱环境、高澜股份。边缘算力承载平台:美格智能、广和通、移远通信。卫星通信:中国卫通、中国卫星、震有科技、华力创通、电科芯片、海格通信。


数据要素——

运营商:中国电信、中国移动、中国联通。数据可视化:浩瀚深度、恒为科技、中新赛克。


风险提示:AI 发展不及预期,算力需求不及预期,市场竞争风险。


1.投资策略:光学智驾提速,算力下沉

本周建议关注:


算力——

光通信:中际旭创、新易盛、天孚通信、太辰光、腾景科技、光库科技、光迅科技、德科立、联特科技、华工科技、源杰科技、剑桥科技、铭普光磁。

铜链接:沃尔核材、精达股份。

算力设备:中兴通讯、紫光股份、锐捷网络、盛科通信、菲菱科思、工业富联、沪电股份、寒武纪。

液冷:英维克、申菱环境、高澜股份。

边缘算力承载平台:美格智能、广和通、移远通信。

卫星通信:中国卫通、中国卫星、震有科技、华力创通、电科芯片、海格通信。


数据要素——

运营商:中国电信、中国移动、中国联通。

数据可视化:浩瀚深度、恒为科技、中新赛克。


本周观点变化:


本周海外算力投资市场波动较大。受三季度财报未达最高预期的持续影响,英伟达股价本周下跌 2.61%,但周五半导体板块拉升,英伟达周五单日涨幅达 2.15%。亚马逊本周涨幅达 5.46%,本轮股价上涨主要原因是上周末亚马逊宣布向其合作伙伴 Anthropic 追加第二笔 40 亿美元投资并在数据中心部署其自研的 Trainium 2 芯片,此举大幅提振投资者信心,拉动股价周一上涨 2.2%,周二上涨 3.18%。国内市场上,受益于 AI 景气度持续以及迎来新故事带来的远期期待,光通信“四小龙”均上涨,太辰光、德科立、源杰科技、腾景科技分别实现涨幅 4.17%、6.36%、10.3%、0.36%;受益于国产芯片需求持续扩张,寒武纪本周上涨 14%。

 

长期来看,我们认为 AI 算力板块的叙事逻辑依然坚挺,仍坚定看好算力板块,未来伴随着下游各领域应用场景的加速落地,无论是 AI 侧还是边缘侧的算力需求都会呈现指数级上升趋势,且目前智能驾驶的高速发展背后也是对算力需求的持续扩大。因此当下时点,我们依旧看好“易中天”为代表的光模块龙头,同时建议重视边缘算力尤其是智驾相关领域的发展,建议关注华测导航、美格智能、海格通信、广和通、慧翰股份等。

2.行情回顾:通信板块上涨,区块链表现最优

本周(2024 年 11 月 25 日 -2024 年 11 月 29 日)上证综指收于 3326.46 点。各行情指标从好到坏依次为:创业板综>万得全 A >万得全 A( 除金融,石油石化 )>中小板综>上证综指>沪深 300。通信板块上涨,表现优于上证综指。



从细分行业指数看,区块链、云计算、卫星通信导航网分别上涨 12%、7.9%、5.6%,表现优于通信行业平均水平;物联网上涨 2.9%,表现与通信行业平均水平齐平;量子通信、运营商、移动互联、通信设备分别上涨 2.7%、2.6%、1.4%、0.5%,表现劣于通信行业平均水平;光通信下跌 1.9%。


本周,受益跨境电商概念,广博股份涨 60.996%,领涨版块。受益传感器概念,亿通科技上涨 48.169%;受益 Web3.0 概念,二六三上涨 33.937%;受益 Web3.0 概念,赢时胜上涨 25.849%;受益算力概念,广东榕泰上涨 23.756%。


3.周专题:智驾提速,算力下沉

【现状:算力加速提升,智能驾驶加速发展中】


L2 成为市场主流,渗透率逐步攀升。智能驾驶技术的快速进步,尤其是 L2 及以上级别的系统,主要源于近年来计算能力的提升、传感器技术的成熟以及 AI 算法的优化。自 2021 年起,随着自动驾驶硬件成本的下降、数据处理能力的提升以及行业法规的逐步放开,自动驾驶技术的商用化进程加快,L2 级别的自动驾驶系统逐渐成为主流配置,大多数中高端车型,包括特斯拉、奔驰、宝马等已经开始标配 L2 系统。L2+ 和 L2++ 功能是 L2 的进一步增强,增加更多的高级功能,如自动变道、自动泊车、交通拥堵辅助等,目前渗透率相对较低。L3 级别在特定条件下可以实现完全自动驾驶,驾驶员仅需在系统无法应对时介入,目前还处于试验阶段,全球范围内的渗透率较低,主要出现在自动驾驶出租车、封闭区域或部分测试车队中。



【当下热点:NOA 和 L2】


NOA 推动了 L2 到 L3 的过渡,成为智能汽车和自动驾驶领域的核心竞争力之一。NOA(Navigate on Autopilot)是自动驾驶领域的升级功能,最早由特斯拉推出,特斯拉的 Autopilot 和 FSD 套件中包含了城市 NOA 和高速 NOA 的功能,目前的高速 NOA 提供自动巡航、自动变道、超车、自动进出匝道等功能,城市 NOA 需要在高精度的地图、实时数据和感知能力上具备更高的要求,能够处理交叉口、红绿灯、行人等动态交通情况。目前 NOA 技术的渗透率整体处于上升阶段,没有广泛普及到所有车型,主要集中在高端电动车和一些配备 ADAS 系统的传统豪华车上。


【智驾热点背后:算力应用场景的落地与需求的扩大】


随着 L2、高速 NOA 和城市 NOA 等技术的逐步商用化,对算力(尤其是边缘侧算力)的需求也在持续扩大。从 L2 到 NOA 的升级,不仅仅是软件和算法的进步,更是硬件计算能力的不断提升,从最初的传统车载计算平台到如今需要高性能 GPU、AI 芯片以及云端计算的支持,算力已经成为智能驾驶技术落地的关键因素:


  • 算力应用场景的扩展:随着算力的逐步普及和进步,未来的智能驾驶将不再局限于高端车型,而是逐步渗透到更多中低端车型中,比如越来越多的中端车型将开始配备 L2+ 或高速 NOA 系统和城市 NOA 系统,应用场景将会伴随车企竞争而加速拓宽,智驾有望成为未来车企竞争的核心力之一。


  • 算力总需求的扩大:一方面,智驾落地加速,智驾系统需要实时处理来自传感器(如摄像头、雷达、激光雷达等)的大量数据并迅速转化为驾驶决策,远程云计算具备网络延迟风险,因此边缘算力成为核心需求;另一方面,随着智驾系统功能逐步扩展,处理的数据量和计算复杂度也会增加,尤其是在处理复杂的城市交通场景时,需要对对动态障碍物、路况变化、交通信号等进行实时分析,会消耗大量的计算资源,因此,随着智驾的提速,车辆端的边缘算力需求也将大幅上升。


综上,我们坚定看好算力板块,未来伴随着下游各领域应用场景的加速落地,无论是 AI 侧还是边缘侧的算力需求都会呈现指数级上升趋势,因此当下时点,我们依旧看好“易中天”为代表的光模块龙头,同时建议重视边缘算力尤其是智驾相关领域的发展,建议关注华测导航、美格智能、海格通信、广和通、慧翰股份等。

4. IDC:2028 年人工智能基础设施投资将突破 1000 亿美元大关

据 C114 报道,国际数据公司(IDC)发布的全球人工智能基础设施半年度跟踪报告显示,全球人工智能(AI)基础设施市场正迎来空前增长,预计到 2028 年,相关支出将突破 1000 亿美元大关。2024 年上半年,全球各组织在人工智能计算和存储硬件基础设施上的支出同比增长 37%,总额达到 318 亿美元。


IDC 表示,人工智能基础设施市场已连续九个半年期保持两位数增长,其增长的主要动力是人工智能服务器的投资。2024 年上半年,服务器支出占总支出的 89%,同比增长 37%。随着超大规模云服务提供商和数字服务提供商不断扩大其基础设施能力,部署在云和共享环境中的人工智能基础设施支出占到了 2024 年上半年人工智能服务器总支出的 65%。


加速服务器是人工智能平台的首选基础设施,占人工智能服务器总支出的 58%,并在 2024 年上半年实现了 63% 的增长。IDC 预计,到 2028 年,加速服务器的支出将超过 60%,未来五年的复合年增长率将达到 19%。



在全球人工智能基础设施市场中,美国占据领先地位,2024 年上半年的支出几乎占到全球总支出的一半。紧随其后的是中国市场(占 23%)、亚太地区(占 16%)以及欧洲、中东和非洲地区(占 10%)。未来五年,IDC 预计亚太和日本地区的年复合增长率将最快,达到 20%,其次是美国(16%)、欧洲、中东和非洲地区(13%)和中国(11%)。


IDC 预测,到 2028 年,人工智能基础设施支出将达到 1070 亿美元,其中部署在云环境中的服务器占市场总支出的 75%,加速服务器约占 56%。

5. TrendForce:预计到 2027 年 AI 与互动需求将推动人型机器人市场产值突破 20 亿美元

据 C114 报道,TrendForce 预测,人型机器人 2025 年起将逐步实现量产,预估 2024 年至 2027 年全球人型机器人市场规模之年复合成长率将达 154%、产值有望一举突破 20 亿美元,服务型机器人受惠于生成式 AI 技术对市场的吸引力也将显著提升。



只看 2025 年,目前各大厂商都在积极投入与扩大人型机器人测试,许多领先厂商的产品完成度也不断提高,例如 Agility Robotics 开发的 Digit、Apptronik 开发的 Apollo 皆有上市规划,特斯拉的 Optimus 同样计划在 2025 至 2027 年量产上市。


TrendForce 分析师表示,人型机器人能否迈向商用,关键在于体察认知、对话交流和运动执行能力的实现。


人型机器人的运动执行能力取决于关键零组件技术,据调查,目前人型机器人各项零组件成本占比中,以行星滚柱螺杆占为最高(22%),其余有复合材料件(含塑料及金属)9%、6D 力矩感测器 8%,以及空心杯马达占 6% 等,且零组件领域皆存在一定程度之技术壁垒。


分析师表示,预计人型机器人的软硬件供应链将与智能终端设备、工业机器人及无人机供应链高度重叠,目前在此三类供应链具备竞争优势的供应商,未来更容易切入人型机器人市场。展望 2025 年机器人的应用场域,工业型机器人仍将以手臂捡货为主,服务型机器人则有生成式 AI 加持,支持多模态交流互动功能。

6.  GPT-4o 系列 AI 模型加持,微软 LlamaParse 文档解析能力全面升级

据 C114 报道,微软于 11 月 26 日发布博文,宣布在其 LlamaParse 中集成 Azure OpenAI 端点,利用 GPT-4o 系列模型,增强提取非结构化数据和解析多模态文档,并无缝衔接 Azure AI Search 向量数据库,构建完整的检索增强生成(RAG)工作流程。微软 LlamaParse 是一个专为生成式人工智能(GenAI)设计的文档解析器,其主要目标是解析和清理各种文档数据,在传递给下游大型语言模型 (LLM) 之前,确保数据质量。


微软 LlamaParse 在本次集成后,可以让用户调用 Azure OpenAI 的 GPT-4o 系列模型,提取非结构化数据和文档转换。此次集成充分发挥了双方优势,LlamaParse 负责高效解析,Azure OpenAI 则提供强大的语言模型能力,最终实现更精准、更智能的文档处理。

7.  软银拟再向 OpenAI 投资 15 亿美元

据新华社报道,美国开放人工智能研究中心 (OpenAI) 允许员工向日本软银集团出售股票,以此获得软银投资 15 亿美元。


美国消费者新闻与商业频道 (CNBC) 报道,OpenAI 现任和前任员工将在 12 月 24 日前决定是否把手中股票卖给软银。


路透社报道,OpenAI 今年 10 月按 1570 亿美元估值完成最新一轮 66 亿美元融资。CNBC 评论,软银对 OpenAI 的最新增资意向凸显孙正义对人工智能领域的投资兴趣。他先前公开表示,正储备“数以百亿计美元”,以期在这一领域施展“下一个大动作”。


软银“愿景基金 2”不久前投资格利恩公司、“困惑”公司等三家人工智能初创企业。软银两只“愿景基金”共管理 1600 亿美元资产。


门洛风险投资公司最新数据显示,生成式人工智能市场营收预计将在 10 年内达到 1 万亿美元。企业今年对生成式人工智能的投入激增 500%。

8.  鸿海斥资 2.4 亿元取得美国得州土地 拟扩增 AI 服务器产线

据 C114 报道,鸿海(富士康)11 月 26 日晚间公告,子公司投资 3303.3 万美元(约 10.7 亿元新台币,2.4 亿元人民币),取得美国得州哈里斯县(Harris County)土地及厂房。产业人士分析,鸿海此次投资为扩增 AI 服务器产线,服务北美客户。


鸿海晚间代位于美国得州休斯顿的子公司 Foxconn Assembly LLC.公告,投资 3303.3 万美元取得美国得州哈里斯县土地约 47.8 万平方英尺,以及厂房 20.2 万平方英尺,鸿海说明,主要目的为运营需求。


8 月下旬,鸿海曾公告子公司 Cloud Network Technology USA Inc.投资 2.53 亿美元,取得 Foxconn Assembly LLC.股权。


今年,英伟达在 GTC 大会上展示了 GB200 新架构 AI 服务器机柜整套解决方案,鸿海是主力代工厂,改变了过去单卖一台 AI 服务器的做法,未来要具备整柜输出与垂直整合能力的大厂,才具备接单优势。


11 月中旬,鸿海董事长刘扬伟表示,主要云端服务供应商(CSP)持续投资 AI 建设,加上主权 AI 等趋势带动下,现阶段订单能见度比 8 月法说会预期更好,鸿海今年运营将显著增长,明年续强。而由于 AI 产品和电动汽车需要区域制造能力,鸿海在美国投资会继续增加。

9.  美国 AI 搜索独角兽 Perplexity 估值已达 90 亿美元,搜索频次是谷歌三倍

据 C114 报道,美国 AI 搜索独角兽 Perplexity,新一轮 5 亿美元融资已经进入最后阶段,完成融资后其估值将飙升至 90 亿美元(约合人民币 640 亿元),是五个月前估值的三倍。


根据 PitchBook 的数据,其身后投资人名单已达到至少 46 个,其中包括谷歌高管、YouTube 前 CEO Susan Wojcicki 和谷歌 AI 掌门人 Jeff Dean 都对 Perplexity 进行了个人投资。


Perplexity AI 上线第一个月便吸引了 220 万访客,随后每个月都数倍增长,今年 Perplexity AI 迎来爆发,每周处理的查询量已突破 1 亿。这意味着从单月看,整体查询量已经接近 4 亿次。


据统计,目前 Perplexity 的单人搜索频次是谷歌的 3 倍左右,预计在 2024 年底月活可能达到 1 亿水平。另据近期销售额估计,Perplexity AI 的年收入已能达到 5000 万美元。

10. 英伟达推出 Fugatto,音乐制作新神器

据 C114 报道,英伟达 11 月 25 日发布博文,宣布推出音乐生成 AI 模型 Fugatto,声称是“全球最灵活的声音机器”,可以精细化控制声音生成。


英伟达表示该工具就像是声音领域的“瑞士军刀”,不仅能创作音乐、修改声音,还能灵活地混合各种音乐、人声和音效,甚至创造出前所未有的声音。


用户只需输入文字描述或者插入一些音频,Fugatto 就能生成相应的音乐片段、音效,甚至根据描述改变人声的口音和情感。可以更改用户输入的音频片段,调整声音的口音和语气,例如将柔声细语变成愤怒的咆哮等等。对于音乐艺术家来说,Fugatto 还可以分离歌曲中的主唱,添加乐器,甚至可以将钢琴声替换成歌剧演唱,随意改编音乐旋律。

11.  Hugging Face 发布 SmolVLM 开源 AI 模型:20 亿参数,用于端侧推理,体积小、速度快

据 C114 报道,Hugging Face 平台 11 月 26 日发布博文,宣布推出 SmolVLM AI 视觉语言模型(VLM),仅有 20 亿参数,用于设备端推理,凭借其极低的内存占用在同类模型中脱颖而出。


官方表示 SmolVLM AI 模型的优点在于体积小、速度快、内存高效,并且完全开源,所有模型检查点、VLM 数据集、训练配方和工具均在 Apache 2.0 许可证下发布。


SmolVLM AI 模型共有 SmolVLM-Base(用于下游微调)、SmolVLM-Synthetic(基于合成数据微调)和 SmolVLM-Instruct(指令微调版本,可以直接用于交互式应用)三个版本。


SmolVLM 最大的特点在于巧妙的架构设计,借鉴了 Idefics3,使用了 SmolLM2 1.7B 作为语言主干,通过像素混洗策略将视觉信息的压缩率提高到 9 倍。训练数据集包括 Cauldron 和 Docmatix,并对 SmolLM2 进行了上下文扩展,使其能够处理更长的文本序列和多张图像。该模型通过优化图像编码和推理过程,有效降低了内存占用,解决了以往大型模型在普通设备上运行缓慢甚至崩溃的问题。


SmolVLM 将 384x384 像素的图像块编码为 81 个 tokens,因此在相同测试图片下,SmolVLM 仅使用 1200 个 tokens,而 Qwen2-VL 则使用 1.6 万个 tokens。SmolVLM 在 MMMU、MathVista、MMStar、DocVQA 和 TextVQA 等多个基准测试中表现出色,且处理速度相比较 Qwen2-VL,预填充(prefill)吞吐量快 3.3 到 4.5 倍,生成吞吐量快 7.5 到 16 倍。

12.  风险提示

AI 发展不及预期,算力需求不及预期,市场竞争风险。

本文节选自国盛证券研究所已于 2024 年 12 月 1 日发布的报告《国盛通信丨智驾提速,算力下沉》,具体内容请详见相关报告。

【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。

吉时通信
数据请求中
查看更多

推荐专栏

数据请求中
在 App 打开