01 为什么是英伟达
全球科技巨头,GPU王者——英伟达
英伟达(NVIDIA)是全球GPU巨头。英伟达成立于1993年,总部位于美国加利福尼亚州。公司专注于GPU的研发与制造,2009年发布了费 米(Fermi)架构,确立了在游戏领域的主导地位。公司业务包括数据中心、游戏、科学计算和自动驾驶。在人工智能领域,TensorCore作 为深度学习的处理单元,为AI提供高效的计算和学习能力。出色的软件研发为公司持续发展提供支持,CUDA平台和深度学习库广泛应用 于科研和大数据等领域。
2016年至今股价大幅增长近60倍,AI开启全新增长周期。英伟达(NVIDIA)截至2023年5月30日的总市值为9631.8亿美元,收盘价为每股 389.46美元。根据JonPenddie Reasearch数据,独立显卡市场中,英伟达在全球GPU市场占有84%份额。近20年,英伟达业绩收入大幅 增长15倍,业绩持续爆发式增长,我们认为这是英伟达股价持续增高的根本原因。此外,公司在2015年开启布局相应人工智能领域,并于 2019年崭露头角并逐渐成为全球AI巨头,如今,随着大模型的爆发,英伟达作为AI硬件龙头,开启第二波成长曲线。
30年王者之路,AI硬件巨头崛起
竞争激烈,勇于破冰(1993年-1998年):英伟达于1993年进入市场,当时显示芯片行业竞争激烈。1995年,英伟达推出NV1,但成效不 明显,财政形势紧张。然而,1997年,公司推出了全球首款128位3D处理器RIVA 128(加速图形处理芯片),仅前四个月就售出超过一百 万台,成功逆袭。此后,英伟达在1998年继续发力,发布了两款高性能的3D处理器,RIVA 128ZX和RIVA TNT。
成功上市,高速发展(1999年-2005年): 1999年1月,英伟达在NASDAQ股票交易所以每股12美元的价格进行了首次公开募资。同年 八月,发布了全球首款GPU(GeForce 256),将GPU定义为具备集成变换、照明、三角设置、裁剪和渲染引擎的单片处理器,能够每秒处 理至少1000万个多边形。英伟达成为发展最快的半导体公司之一,收入达到10亿美元,并被纳入S&P500指数。
CUDA问世,强调生态(2006年-2009年):2006年推出了CUDA,一种用于通用GPU计算的革命性架构,使科学家和研究人员能够进行更 复杂的计算。2009年发布了首个完整的GPU计算架构(Fermi),其中Quadro 7000代表着一个飞跃,实现了游戏性能和计算性能的双重 提升。
产品:图形显控+计算中心加速卡双轮驱动
公司GPU产品功能分为1)用于计算和网络(Compute & Networking)的GPGPU;2)用于图形处理(Graphics)的GPU。 GPGPU(General Purpose GPU):通用计算图形处理器。在架构设计中去掉了GPU为图形处理设计的加速硬件单元,保留了SIMT架构 和通用计算单元。可以将GPU的并行计算能力应用于科学计算、数据分析、机器学习等领域,提高计算速度和效率。 GPU(Graphics Processing Unit):完成图像运算工作的微处理器。作为一个单独的模块,即独立显卡核心或者主板集成显卡核心。主要 用于提供高性能的图形渲染能力。
根据2023财年年报,公司计算与网络类GPGPU收入150.68亿美元,图形处理类GPU收入119.06亿美元。其中1)计算与网络类收入同比 +36%,主要应用于数据中心加速计算平台、人工智能驾驶舱、自动驾驶解决方案、电动汽车计算平台、NVIDIA AI企业和其他软件、加密 货币挖掘等。2)图形处理类收入同比-25%,主要应用于游戏和个人电脑的GeForce图形处理器、游戏平台的解决方案、基于云的视觉和 虚拟计算的软件、构建和操作3D互联网应用程序的全方位企业软件等。
业务: 打造多元产品矩阵,数据中心与游戏为核心
公司软硬件结合平台化布局,打造4条产品线覆盖下游主流应用:
数据中心:2023财年收入150.1亿美元,占比56%。基于 GPU、DPU 和 CPU 三种新一代架构构建的 NVIDIA 加速计算平台,推出NVIDIA DGX 人工智能超级计算机,让现代化的数据中心更快速地处理涉及深度学习、机器学习和高性能计算 (HPC) 的工作负载。
游戏:2023财年收入90.7亿美元,占比34%。产品包括GeForce RTX和GeForce GTX图形处理器,云游戏GeForce NOW,用于流媒体的 屏蔽以及芯片系统(SOCs)和游戏机的开发服务。2023财年推出基于Ada Lovelace架构的GeForce RTX 40系列游戏图形处理器。
专业可视化:2023财年收入15.4亿美元,占比6%。应用于许多领先的3D设计和内容创建,如全宇宙、虚拟现实和增强现实技术。利用 GPU在设计制造、数字内容创建方面提供动力。推出的NVIDIA RTX平台可利用光线跟踪,实时渲染胶片质量、逼真的物体和环境。
自动驾驶:2023财年收入9.0亿美元,占比3%。包括AV、人工智能驾驶舱、电动汽车计算平台和信息娱乐平台解决方案。根据2023财年年 报,公司正与数百名汽车生态伙伴合作,包括汽车产业链制造商、汽车研究机构、地图公司和初创公司,为自动驾驶汽车开发和部署人工 智能系统。推出的Drive作为一个人工智能汽车平台,覆盖多种自动驾驶领域。
CUDA开启软硬件生态,形成护城河
GPU适用于处理大数据集,CUDA核是本质原因。最开始,GPU(图形处理单元)作为一种专用计算机处理器,可以满足实施高分辨率 3D图形计算密集型任务的需求。到2012年,由于GPU已经发展成为高度并行的多核系统,让它具备了处理大量数据的能力。简而言之, CPU做的专注线性计算,GPU做的是并行计算(数据之间没有直接关系),而本质的原因是CUDA核的不同,CUDA核越多,计算性能越 强,而GPU的CUDA核数是CPU的上百倍,如AMD EPYC 7003系列7763核心数为64个,而英伟达A100 40GB核心数为6912个。
CUDA的本质是“软件定义硬件”,实现“软件调用硬件”。 CUDA是一种并行计算平台和应用程序编程接口(API),允许软件使用特 定类型的图形处理单元(GPU)进行通用目的的处理,称为通用图形处理单元计算(GPGPU)。CUDA提供了直接访问GPU虚拟指令集和并 行计算元素的软件层,用于执行计算内核。CUDA支持的GPU还可以使用编程框架,通过将代码编译为CUDA来使用HIP。CUDA将从 前多种不同的代码整合成了一气呵成的代码,这样极大的加快了开发模型的训练速度。可以简单理解,CUDA是英伟达实现软硬件适配 的一种“类编译器”,将软件的代码转换成硬件汇编代码,CUDA是英伟达实现软硬件生态的护城河。
英伟达今年发布多款AI产品,助力全球AI生态
2023年3月23日GTC会议,英伟达全新AI相关产品助力全球AI生态。1)基础软件:推出全新加速库;2)芯片方面:推出数据中心 Grace CPU,具备高能效、高运行速度等优势;3)服务器:推出DGX超级计算机;4)全新AI服务平台(DGX云与生成式AI服务), AI的“Iphone”时刻已经来临,AI foundations 云服务能够构建、改进和操作定制的大型语言模型和生成式 AI 模型,助力初创企业具备 拥有生成式AI的能力,且已经具备多种生成式AI模型和相应案例。
平台实为模型和算力之间的“桥梁”,是AIGC或大模型生成的必备要素,不论是数据库还是编译器,都需要通过平台来实现资源的合 理分配以达到软硬件的最优组合,从而大幅提升模型效率。平台通过调用数据包来适配软硬件之间的结构,来达到模型的最优组合,从 而提升模型乃至整个虚拟机的效率。
02 AI硬件自主可控势在必行
英伟达成功转型成全球AI硬件龙头
英伟达已经成功的从一家图形处理器公司转型为引爆人工智能的综合性硬件公司。GPU技术在AI应用中发挥着重要的作用,其并行计算 的能力处于领先地位。AI平台—NVIDIA DGX系统作为一套高性能计算解决方案,集成了英伟达的GPU和软件工具,让开发者更加便 捷的构建、训练和部署AI。软件方面推出NVIDIA CUDA和NVIDIA cuDNN,提供了快速的神经网络训练和推断功能。英伟达的技术在 AI领域被广泛应用于智能驾驶、深度学习、金融服务、医疗保健、游戏开发和建筑工程等各个领域。
医疗保健:加快药物的研发速度,NVIDIA推出NVIDIA Clara Discovery的AI加速计算平台,可支持化学信息学研究、蛋白质结构预测、 药物筛选和分子动力学等研究。推出大语言模型BioNeMo可用于训练和部署大型生物分子语言模型。更新医疗设备,运用NVIDIA强大 的GPU的分析和成像技术,打造用于影像诊断、数字手术和病人监护等多种医疗设备,大大提高治疗精度和效率。
游戏开发:为游戏开发提供NVIDIA游戏技术,例如,有生成式AI提供支持的智能游戏角色铸造平台—NVIDIAACE、AI神经图形技术— NVIDIA DLSS、可扩展的多GPU实时推理开发平台(用于3D方针和设计)—NVIDIA Omniverse平台等。这些平台帮助游戏开发这一创 纪录的速度构建逼真且精确的游戏。
建筑工程:加速设计流程,提高工作效率,NVIDIA RTX驱动的工作站通过实时光线追踪、虚拟现实、工程模拟和支持AI的应用程序增 强建筑和基础设施设计工作流程。Omniverse平台克服了设计软件之间操作冲突的问题。NVIDIA Quadro GPU可快速分析复杂的流体 场景,使用NVLink技术加速,可以大大缩短设计、建模、模拟和检查等过程的时间。
再三强调,大模型背景下算力势必迎来爆发
ChatGPT开启算力军备赛: 我们已经在《ChatGPT: 百度文心一言畅想》中提到数据、平台、算力是打造大模型生态的必备基础,且算力 是训练大模型的底层动力源泉,一个优秀的算力底座在大模型(AI算法)的训练和推理具备效率优势;同时,我们在《ChatGPT打响AI算 力“军备战”》中提及算力是AI技术角逐“入场券”,其中AI服务器、AI芯片等为核心产品;此外,我们还在《ChatGPT , 英伟达DGX 引爆 AI “核聚变”》中提到以英伟达为代表的科技公司正在快速补足全球AI算力需求,为大模型增添必备“燃料”。
大模型参数呈现指数规模,引爆海量算力需求: 根据财联社和OpenAI数据,ChatGPT浪潮下算力缺口巨大,根据OpenAI数据,模型计算 量增长速度远超人工智能硬件算力增长速度,存在万倍差距。运算规模的增长,带动了对AI训练芯片单点算力提升的需求,并对数据传 输速度提出了更高的要求。根据智东西数据,过去五年,大模型发展呈现指数级别,部分大模型已达万亿级别,因此对算力需求也随之 攀升。
美国限制高端芯片流入中国,严重干扰国内大模型发展生态
美国政府禁止英伟达、AMD向中国出口用于人工智能的顶级计算芯片。 根据钛媒体,2022年9月,美国商务部宣布限制英伟达(NVIDIA)和AMD等美国公司向中国出口先进计算机图像处理器(GPU),该禁 令主要限制了英伟达的A100、H100高端芯片以及AMD的MI250出口中国,目的是瞄准国内先进计算进行遏制,影响国内人工智能领域发 展。
浪潮集团被加入“实体清单”:根据钛媒体,2023年3月美国商务部发布浪潮被加入被加入美国“实体清单”,限制了美国科技公司对浪 潮的技术、产品支持。浪潮的服务器业务在CPU、GPU等关键芯片技术商高度依赖外国厂商,此外,截至2022年末,浪潮服务器及部件占 总营收99.17%,若此次制裁被严格落实,其服务器业务将严重停滞。
产业端积极响应,智能算力建设持续提速
北京昇腾人工智能计算中心正式点亮:北京昇腾人工智能计算中心正式点亮,将 推动北京人工智能产业高质量发展。该智能计算中心采用昇腾AI基础软硬件,充 分释放硬件算力,加速人工智能企业创新应用和模型孵化。
贵州省大数据局印发《面向全国的算力保障基地建设规划》:总体目标是到2025 年,面向全国的算力保障基地建设任务全面完成,贵州超大规模数据中心集群的 地位更加巩固,存算比更加合理,优化基础设施布局、结构、功能和系统集成, 数据中心实现集约化、规模化、绿色化发展,网络互联互通、能源安全可靠提高 到新的水平,打造具有国际竞争力的数字产业集群。
“共享AI能力与算力” ,AI云需求高增
部署生成式 AI 应用难度较高,AI云提供平台定制化能力。随着大模型带来的人工智能产业崛起,AI应用如文本生成、自动客服、自动 驾驶等领域快速扩张。对于大多数企业自己部署这样的能力是非常困难的,我们认为一是由于目前的算力缺口及训练的边际成本较高, 二是由于全链部署应用需要深厚的软硬件结合生态技术。而AI云可将如英伟达等专业供应商的AI能力整合到云上,让企业能够直接接入 应用或从基础层进行预训练,进而形成自己的模型和应用。
AI云需求快速增长,云算力革命开启。在企业对大模型训练、人工智能应用部署等AI能力需求持续上行的态势下,AI云产品受到市场的 青睐。以阿里、腾讯为代表的平台型公司在云端市场布局上,更多地关注的是通用云的打造;而华为、曙光更多地是从硬件的角度着手 加入云市场布局。我们认为软硬结合的AI云玩家(英伟达、首都在线)符合市场的需求。同时,AI云需求高增也意味着未来掌握智算卡 的企业将继续占领市场高地,万变不离其宗,我们坚持认为拥有算力的企业在下一阶段进行应用和平台化竞争的过程中具有先发优势。