产品概述
加速 AI 设计的 IP
适用于边缘设备的 AI 加速器 IP
边缘 AI 设计需要在性能、功耗、面积和延迟之间实现微妙的平衡。Origin™ 专为您的特定用例量身定制,从最小的边缘节点、智能手机到汽车,这款 NPU IP 是优化应用性能的理想之选。
架构针对训练好的网络进行优化
Origin 提供全面的精度和可预测性能,无需针对特定硬件进行优化或修改训练好的模型。基于数据包的执行架构已获得专利,其单核性能高达 128 TOPS,可持续利用率达 70-90%,这些数字都是在运行 ResNet 等常见 AI 工作负载的芯片中测量的。其性能和利用率处于业内一流水平,让用户能够以比其他解决方案更低的功耗运行 AI 模型。
艾伯德的架构经过芯片验证和第三方检测,极其节能,算力性能达到 18 TOPS/W。Origin NPU 具有确定的性能,内存占用小,而且完全可扩展。这使其成为几乎不消耗 DRAM 带宽的边缘解决方案或自动驾驶等高性能应用的完美之选。对于寻找单 NPU 架构轻松运行 RNN、CNN、LSTM、LLM 等网络类型,同时维持最佳处理性能、功耗和面积的工程师来说,Origin 产品系列是其理想之选。
基于 TVM 的完整软件栈
艾伯德的 Origin IP 平台囊括了基于 TVM 的完整软件栈,可以使开发人员高效地将其网络部署在目标硬件上。该软件栈可以选择两个工作流,一个是基于 TVM 编译器的脱机编译流,另外一个是设备端或联机用的解释流。TVM 实现了一次编写、随地部署的策略。支持包括 TensorFlow、TensorFlow Lite、PyTorch 和 ONNX 在内的所有主流框架,开发人员可以继续使用其偏好框架。
软件栈自动处理信息分包和调试等任务,同时提供用户友好的选项,比如使用您或我们的工具进行混合精度量化,定制层和定制网络支持,以及多作业 API。
产品
Origin E1
神经引擎针对家用电器、智能手机和边缘节点中始终在线的应用程序的通用网络进行了优化,这些应用需要大约 1 TOPS 的算力性能。这款 E1 LittleNPU 处理器实施了进一步的精简,是大多数成本和面积敏感型应用的理想之选。
Origin E2
Origin E2 NPU 核心经过了功耗和面积优化,可节省智能手机、边缘节点和其他消费类和工业设备的系统功耗。通过精心考量处理器利用率和内存要求,E2 NPU 能够以最低的延迟实现最佳的性能。E2 配置性高,可提供 1 至 20 TOPS 的算力性能,支持常见的 RNN、LSTM、CNN、DNN 等网络类型。
Origin; E6
Origin E6 NPU IP 核心性能经过优化,适用于智能手机、AR/VR 头盔和其他需要图像变换器、稳定扩散和点云相关 AI 的设备应用。通过精心考量处理器利用率和外部内存使用情况,E6 NPU 提高了功耗效率,并且最大程度降低了延迟。单核性能为 16 至 32 TOPS。
了解详情
Origin E8
Origin E8 NPU IP 核心专为汽车/ADAS 和数据中心等性能密集型应用而设计,擅长处理复杂的 AI 任务,包括计算机视觉、大语言模型、变形、点云、网格采样、图像分类和目标检测等任务。单核性能为 32 至 128 TOPS。
TimbreAI T3<
TimbreAI T3 是一款超低功耗人工智能 (AI) 推理引擎,专为耳机等功率受限设备中的降噪用例而设计。TimbreAI 不需要外部内存访问,在提高性能和减小芯片尺寸的同时节省了系统功耗。