
Origin E6
用于日常推理应用的高性能主力引擎
Origin™ E6 专为以性能和功耗为主要设计目标的应用而设计,包括智能手机、平板电脑和边缘服务器。艾伯德的高级内存管理可确保持续的 DRAM 带宽和理想的总体系统性能。Origin E6 深度学习加速器 (DLA) 具有 16 至 32 TOPS 性能,实际利用率高达 80%(在运行 ResNet 等常见工作负载的片上测量),在图像相关的任务中表现出色,如计算机视觉、图像分类和目标检测。此外,它还能够执行与 NLP(自然语言处理)相关的任务,如机器翻译、句子分类和生成。
特征
规格
- 16 至 32 TOPS 性能,性能效率高达 18 TOPS/W
- 高达 16K MACS 的可扩展性能
- 最高支持8K输入分辨率
- 高级激活内存管理
- 低延迟
- 兼容多种 DNN 模型
- 用于神经网络的硬件调度器
- 训练好即可处理模型,无需软件优化
- 使用熟悉的开源平台,如 TFlite
- 以软 IP 提供:可移植到任何工艺
计算能力 | 8K 至 16K INT8 MACS |
多任务 | 同时运行多达 2 个作业 |
功耗效率 | 高效的 18 TOPS/W (INT8) |
神经网络支持 | CNN、RNN、LSTM 和其他神经网络架构 |
层支持 | 标准神经网络功能,包括卷积、反卷积、全连通、激活函数、Reshape、Concat、Elementwise、池化、Softmax 等 |
数据类型 | INT4/INT8/INT10/INT12/INT16 激活值/权重 FP16/BFloat16 激活值/权重 |
量化 | Channel-wise 量化(TFLite 规格) 基于工作负载需求的可选自定义量化 |
延迟 | 确定性能保证 |
内存 | 智能系统内存分配和调度 |
框架 | TensorFlow、TFlite、ONNX |
工作负载 | 能够运行大型 DNN 网络 |
优势
业界领先的性能和功耗效率。
架构可满足多种计算需求。
片上存储和系统 DRAM 协同工作以提高带宽。
大幅减少内存需求。
确定的实时性能。
灵活适应不断变化的应用。
简单的软件栈。
实现与训练好的模型相同的精度。
简化了对最终客户的部署。
好处
- 效率:业界领先的 18 TOPS/W 可实现更高的处理效率和更低的功耗
- 简单性:消除了复杂的编译器,降低了设计复杂度,缩减了成本,加快了上市时间
- 可配置性:可独立配置的构建块实现了设计优化,并能进行适当规模的部署
- 可预测性:确定的 QoS
- 可扩展性:从 16 至 32 TOPS,单个可扩展架构即可满足广泛的应用性能要求
- 可部署性:市场上优秀的 TOPS/mm2,可确保理想的处理/芯片尺寸设计
持续关注
订阅我们的新闻
立即注册,即可收到直接发送到收件箱的有用资源。