
Origin E8
适用于最苛刻环境的
高性能推理引擎
Origin™ E8 专为以性能为主要设计目标的应用而设计,包括汽车/ADAS 和数据中心应用。艾伯德的高级内存管理可确保持续的 DRAM 带宽和理想的总体系统性能。Origin E8 深度学习加速器 (DLA) 具有 32 至 128 TOPS 性能,实际利用率高达 90%(在运行 ResNet 等常见工作负载的片上测量),在图像相关的任务中表现出色,如计算机视觉、图像分类和目标检测。Origin E8 提供多任务支持,能够更好地利用硬件资源并降低系统成本。该加速器具备高效神经网络引擎,使设计人员可以开发采用被动散热的产品,从而进一步降低系统成本。
特征
规格
- 32 至 128 TOPS,性能效率高达 18 TOPS/W
- 16K 至 64K INT8 MACS
- 同时运行多达 8 个作业
- 高级激活内存管理
- 低延迟
- 可预测的确定性能
- 兼容多种 DNN 模型
- 用于神经网络的硬件调度器
- 训练好即可处理模型,无需软件优化
- 使用熟悉的开源平台,如 TFlite
- 以软 IP 提供:可移植到任何工艺
计算能力 | 36K 或 54K INT8 MAC |
多任务 | 同时运行多达 8 个作业,并确保 QoS |
功耗效率 | 高效的 18 TOPS/W (INT8) |
神经网络支持 | CNN、RNN、LSTM 和其他神经网络架构 |
层支持 | 标准神经网络功能,包括卷积、反卷积、全连通、激活函数、Reshape、Concat、Elementwise、池化、Softmax 等 |
数据类型 | INT4/INT8/INT10/INT12/INT16 激活值/权重 FP16/BFloat16 激活值/权重 |
量化 | Channel-wise 量化(TFLite 规格) |
延迟 | 确定性能保证 |
内存 | 先进系统内存分配和虚拟化调度 |
框架 | TensorFlow、TFlite、ONNX |
工作负载 | 能够运行大型 DNN 网络 |
Advantages
业界领先的性能和功耗效率。
采用专门的架构,旨在以最高效率支持要求苛刻的工作负载。
降低多种模型的硬件需求
大幅减少内存需求。
确定的实时性能
灵活、经得起未来考验的支持。
简单的软件栈。
实现与训练好的模型相同的精度。
简化了对最终客户的部署
好处
- 效率:业界领先的 18 TOPS/W 可实现更高的处理效率和更低的功耗
- 简单性:消除了复杂的编译器,降低了设计复杂度,缩减了成本,加快了上市时间
- 可配置性:可独立配置的构建块实现了设计优化,并能进行适当规模的部署
- 可预测性:确定的 QoS
- 可扩展性:从 16 至 128 TOPS,单个可扩展架构即可满足广泛的应用性能要求
- 可部署性:市场上优秀的 TOPS/mm2,可确保理想的处理/芯片尺寸设计
持续关注
订阅我们的新闻
立即注册,即可收到直接发送到收件箱的有用资源。