体验 AI 推理
重塑神经网络加速器 IP
体验 AI 加速器超出所有预期的能力,以及优于竞争对手的性能。艾伯德神经处理器经过精调,
支持在 PPA 受限的设备上部署日益复杂的 AI 网络
完美适配边缘设备的 PPA
至精至简的 AI 机器
我们采用基于数据包的特殊架构,提供业内最为高效的 NPU IP
解决方案。这种架构完全可扩展,能够实现超高效的工作负荷调度和内存管理,处理器使用率达 90%
产品量身定制,可发挥最佳性能
恰到好处
艾伯德根据客户的 PPA 和模型要求,为其量身定制精确满足应用需求的解决方案。所产生的 NPU
大小合适,可满足当下和未来的网络支持需求,杜绝芯片面积浪费,并将内存开销降至最低。
释放 AI 性能
Origin™ 是艾伯德推出的神经引擎 IP 系列产品,可将内存需求降至最低,并大幅降低处理开销。这款产品采用基于数据包的特殊架构,效率远高于其他 NPU 实现基于层的通用架构。这种架构将每一层细分为可单独调度的独立可执行分区。这样就可以跨层并行执行任务,优化资源利用率,带来确定的性能。此外还不需要针对特定硬件进行优化,客户无需更改就可以运行其训练好的神经网络,而不牺牲模型准确度。这种创新的方法大大提升了性能,同时降低了功耗、面积和延迟。
效率
体验行业领先的
18 TOPS/W (TOPS/mm²)
可扩展性
可以选择 3 GOPS 至 128
TOPS 的单核性能(多核可扩展到 PetaOps)
灵活性
原生支持主流
网络和数据类型
可预测性
每个工作负载有确定的性能
和延迟
可配置性
尺寸适合当下和
未来的网络
可靠性
在 1000 多万台
消费类设备中得到了现场验证
应用
产品
Origin E1
神经引擎针对家用电器、智能手机和边缘节点中始终在线的应用程序的通用网络进行了优化,这些应用需要大约 1 TOPS 的算力性能。这款 E1 LittleNPU 处理器实施了进一步的精简,是大多数成本和面积敏感型应用的理想之选。
Origin E2
Origin E2 NPU 核心经过了功耗和面积优化,可节省智能手机、边缘节点和其他消费类和工业设备的系统功耗。通过精心考量处理器利用率和内存要求,E2 NPU 能够以最低的延迟实现最佳的性能。E2 配置性高,可提供 1 至 20 TOPS 的算力性能,支持常见的 RNN、LSTM、CNN、DNN 等网络类型。
Origin E6
Origin E6 NPU IP 核心性能经过优化,适用于智能手机、AR/VR 头盔和其他需要图像变换器、稳定扩散和点云相关 AI 的设备应用。通过精心考量处理器利用率和外部内存使用情况,E6 NPU 提高了功耗效率,并且最大程度降低了延迟。单核性能为 16 至 32 TOPS。
了解详情
Origin E8
Origin E8 NPU IP 核心专为汽车/ADAS 和数据中心等性能密集型应用而设计,擅长处理复杂的 AI 任务,包括计算机视觉、大语言模型、变形、点云、网格采样、图像分类和目标检测等任务。单核性能为 32 至 128 TOPS。
TimbreAI T3
TimbreAI T3 是一款超低功耗人工智能 (AI) 推理引擎,专为耳机等功率受限设备中的降噪用例而设计。TimbreAI 不需要外部内存访问,在提高性能和减小芯片尺寸的同时节省了系统功耗。