子类入口
4 个常见子类
家族导航
NPU / AI accelerator 家族页,围绕定位、典型负载、关键架构变量、软件栈和代表产品建立入口。
用最少的信息先抓住这个家族最重要的边界、代表产品和相关内容入口。
NPU / AI accelerator 以神经网络与矩阵计算为中心设计,目标是在特定 AI 路径上换取更高能效或更高密度。
先看 NPU / AI accelerator 内部常见子类,再进入具体芯片、软件栈与选型问题。
先按 workload 看这类器件为什么存在,再去判断具体厂商和具体芯片。
这些变量通常比单个峰值参数更能解释同一家族内部的代际差异。
xPU 的真实可用性经常取决于软件链路,而不只是硬件参数表。
NPU / AI accelerator 页面会同步给出代表厂商、代表产品和相关内容,帮助用户从概念直接跳到具体对象。
在 AI 加速、昇腾软件栈和端边云协同方面值得持续追踪。
通过 TPU 和云平台把专用 AI 加速器与软件服务深度绑定,代表云上专用化路线。
国产 AI 加速器代表之一,适合持续跟踪其训练、推理和生态落地进展。
覆盖 CPU、GPU、FPGA、AI 加速等多条路线,是理解传统通用计算厂商转向异构计算的重要样本。
通过 Graviton、Inferentia、Trainium 把芯片设计和云服务整合到一起,适合看云厂商自研路线。
SoC、DSP、端侧 NPU 三线协同明显,是端侧异构计算的重要观察对象。
面向 AI 训练与推理的数据中心加速器,是 Intel 在 GPU 之外切入 AI 加速的重要产品线。
面向 AI 训练与推理的加速器,适合作为观察国产 NPU 软件栈与落地路径的代表产品。
Google 云上 AI 加速器路线代表,适合从云平台一体化和专用化部署角度观察。
国产 AI 加速器代表产品之一,适合观察训练与推理市场中的国产替代与生态成熟度。
该家族下的芯片档案会沿 16 个重点维度展开,兼顾常青信息与动态更新。