(以下内容从信达证券《电子行业专题研究:Dojo完善AI闭环,持续看好硬件潜力》研报附件原文摘录)
D1芯片对标英伟达A100,ExaPOD算力可达1.1EFLOPS。特斯拉D1芯片采用台积电7nm制程,面积约为645mm2,包含500亿颗晶体管,BF168算力可达362TFLOPS,FP32算力可达22.6TFLOPS。25个D1芯片组成了一个TrainingTile多晶片模组(MCM),6个TrainingTile组成一个tray,再由两个Tray组成一个机柜,10个机柜组成ExaPOD,BF168峰值算力达到1.1EFLOPS(百亿亿次浮点运算),并拥有1.3TB高速SRAM和13TB高带宽DRAM。
D1芯片需要高速的互联支撑,台积电SoW封装技术提供土壤。在单个Trainingtile上,由于并未将芯片切下,为了提高效率和降低成本,特斯拉未在片上集成DRAM等器件,这与许多通用GPU有所不同。集群节点之间以2Dmesh连接,边缘则通过Interface-processors负责内存池数据搬运,因此高速互联是必要的,台积电SoW封装技术提供了土壤。InFO_SoW取消了衬底和PCB的使用,使得多个芯片阵列使解决方案获得晶圆级优势,以获得低延时、高带宽等优势。此外除了异构芯片集成外,还支持基于小芯片的设计,以实现更大的成本节约和设计灵活性。在部分模型上,Dojo能实现相对A100更高的性能。例如在图像分类模型ResNet-50上,Dojo可以实现比英伟达A100更高的帧率。而在用于预测汽车周围物体所占空间的神经网络模型OccupancyNetworks上,相比英伟达A100,Dojo能实现性能的倍增。
特斯拉将大力投资基础设施,2024年有望达100Exa-Flops算力。特斯拉目前AI基础设施较少,仅约4000个V100和约16000个A100。而Microsoft和Meta等公司拥有超过10万个GPU。据特斯拉规划,2024年有望达100Exa-Flops算力。特斯拉拥有自身车型收集的海量数据,但受限于硬件限制无法充分挖掘数据价值。我们认为,大力投资AI基础硬件设施之后,除加速自身智驾进程外,或可拓展至其他商用领域,如智能机器人等;此外,特斯拉未来也可能成为一家云服务提供商,向相关厂商提供自身算力或模型服务。
投资建议:第一,看好服务器定制化趋势。从特斯拉Dojo上我们看到AI在专业领域的价值,而相似案例有望在教育、医疗、办公等场景拓展,服务器定制化趋势或蔚然成风。建议关注算力产业链:工业富联/沪电股份。第二,受益AI强势赋能,特斯拉产业链或迎成长良机。基础硬件限制解决,AI大模型性能提升,在特斯拉体系内形成良性循环,特斯拉智能驾驶、机器人、零部件等相关厂商或持续受益,建议关注:东山精密/领益智造/舜宇光学/世运电路/胜宏科技等。
风险因素:宏观经济下行风险;AI发展不及预期风险;短期股价波动风险。