Origin E1
小巧玲珑
这些专用 AI 引擎体型小巧、功耗低,是家用电器、安防摄像头和始终在线的智能手机功能所必需的。Origin™ E1 专为特定用例量身定制,提供针对性的低功耗性能,而且几乎不需要外部内存
完美适配的解决方案
Origin E1 NPU 分别针对边缘设备中通常部署的各种神经网络进行定制,包括家用电器、智能手机和安防摄像头。对于需要专用 AI 处理能力实现功耗、芯片面积和系统成本最小化的产品,E1 核心以 1 TOPS 的引擎提供了最小的功耗和面积。
随时感应的低功率 AI
“随时感应”摄像头会持续对视觉数据进行采样和分析,以识别与用户体验相关的特定触发因素。可以带来更为自然的无缝用户体验。然而,由于所生成数据的数量和复杂性,“随时感应”数据需要专门的 AI 处理。因此 OEM 制造商转向了艾伯德 LittleNPU 等专用 AI 引擎。LittleNPU 经过优化,可处理领先 OEM 制造商在随时感应应用中使用的低功耗、高质量神经网络。产品运行功耗低,通常低至 10-20mW,而且能在 LittleNPU 子系统内保持所有摄像头数据的安全性,从而保护用户隐私。
创新架构
Origin E1 神经引擎采用艾伯德基于数据包的独特架构,可以跨层并行执行任务,优化资源利用率,带来确定的性能。这种创新的方法大大提升了性能,同时降低了功耗、面积和延迟。
选择您需要的功能
定制带来诸多好处,包括提高了性能,降低了延迟,减小了功耗,以及杜绝了芯片面积浪费。艾伯德在设计阶段与客户合作,了解其用例、PPA 目标和部署需求。借助于上述信息,我们将 Origin IP 配置成一种完美适配具体应用的定制解决方案。
市场领先的 18 TOPS/W
可持续功耗效率是 AI 部署获得成功的关键。Origin NPU IP 一直被称为市场上最为节能的架构之一,其市场领先的可持续功耗达到 18 TOPS/W。
高效的资源利用率
Origin IP 单核性能可以从 GOPS 扩展到 128 TOPS。这款架构没有低性能平铺式 AI 加速器引擎面临的内存共享、安全和面积损耗问题。Origin NPU 的平均可持续利用率达到 80%,而行业标准仅为 20-40%,这避免了芯片面积浪费
基于 TVM 的完整软件栈
Origin 采用基于 TVM 的完整软件栈。TVM 是广受全球 OEM 制造商信赖和使用的软件。它易于使用,可以导入训练好的网络,并提供各种量化选项、自动化完成、编译、估算器和分析工具。此外还支持多作业 API。
成功部署在 1000 万台设备上
质量是任何产品获得成功的关键。Origin IP 采用多先进节点设计,已成功部署在 1000 多万台消费类设备上。
用例
节能、随时感应的智能手机
一家行业领先的智能手机制造商想推出一款随时感应的摄像头应用。但是制造商发现,采用基于层架构的商用 NPU 无法满足随时感应设计的功耗和面积需求。这家智能手机制造商转而选择艾伯德的 E1 LittleNPU 解决方案。这是一种定制的解决方案,可以运行随时感应的应用所需的神经网络。由于架构效率高,并且可针对用例进行定制,LittleNPU 提供了必需的性能和功耗效率。此外,通过在随时感应的数据保存在 NPU 中,E1 无需使用外部内存,这样智能手机制造商就可以提供更加安全、更为人性化的体验。
|
|
|
|
|
|
test here
计算能力 | 0.5K INT8 MAC |
多任务 | 运行多项作业 |
功耗效率 | 性能效率达 18 TOPS/W;无需剪枝、稀疏化或压缩(尽管支持) |
支持的网络示例 | MobileNet、EfficientNet、NanoDet、PicoDet、Inception V3、RNN-T、MobileNet SSD、BERT、FSR CNN、CPN、CenterNet、Unet、YOLO V3、ShuffleNet2 等 |
层支持 | 标准神经网络功能,包括卷积、反卷积、全连通、激活函数、Reshape、Concat、Elementwise、池化、Softmax 等。 |
数据类型 | INT4/INT8/INT10/INT12/INT16 激活值/权重 |
量化 | Channel-wise 量化(TFLite 规格) 软件工具链支持艾伯德、客户提供或第三方进行的量化 |
延迟 | 确定性能保证,无背压 |
框架 | 支持 TensorFlow、TFlite、ONNX 等 |