
Origin E1
针对神经网络优化的
AI 处理
艾伯德 OriginTM E1 NPU(神经处理单元)是一系列人工智能处理核心,每一个核心都针对边缘、智能手机、消费类设备等常用的一类具体神经网络进行过单独优化。 各神经网络都具有自身独特的工作负载和处理需求,通常与其他网络大相径庭。 如果未对这些独特的差异进行优化处理,则可能导致严重低效和重大开销。 艾伯德针对具体的神经网络量身打造 Origin E1 IP,推出的 NPU 不仅消耗尽可能少的硅面积和外部带宽,而且能够提供最佳的性能和利用率。 这就可以确保在门铃摄像头、家用电器、IoT 端点等功率受限的设备中实现理想的 PPA(功率、性能、范围)部署。
特征
规格
- 1 TOPS 性能
- 18 TOPS/W 典型功耗 (7nm)
- >80% 平均利用率
- 对片上内存要求极低甚至无要求
- 针对具体工作负载调整
- 训练好即可处理模型;无需软件优化
- 高级激活函数内存管理
- 低延迟
- 硬件调度器
- 支持标准的神经网络功能,包括卷积、反卷积、全连通、激活函数、Reshape、Concat、Elementwise、池化、Softmax、双线性插值等
- 训练好即可处理模型,无需软件优化
- 使用熟悉的开源平台,包括 TFlite
计算能力 | 1 TOPS |
功耗效率 | 高效的 18 TOPS/W (INT8) |
神经网络支持 | ResNet 50 V1, ResNet 50 V2, Inception V3, RNN-T, MobileNet V1, MobileNet SSD, BERT, EfficientNet, FSR CNN, Unet, YOLO V3, ShufleNet2, and others |
作业数 | 单 |
层支持 | 标准神经网络功能,包括卷积、反卷积、全连通、激活函数、Reshape、Concat、Elementwise、池化、Softmax、双线性插值等 |
数据类型 | INT8/INT16 激活值 INT8 权重 |
量化 | Channel-wise 量化(TFLite 规格) 基于工作负载需求的可选自定义量化 |
延迟 | 已针对最小延迟进行了优化,提供确定保证。 |
内存 | 智能片上动态内存分配算法 |
框架 | TensorFlow, TFlite, ONNX |
优势
业界领先的性能和功耗效率。
架构可满足多种计算需求。
大幅降低内存需求,无需片外 DRAM
大幅减少内存需求。
确定的实时性能。
灵活适应不断变化的应用。
简单的软件栈。
实现与训练好的模型相同的精度。
简化了对最终客户的部署。
好处
- 效率:业界领先的 18 TOPS/W 可实现更高的处理效率和更低的功耗
- 简单性:消除了复杂的编译器,降低了设计复杂度,缩减了成本,加快了上市时间
- 可配置性:可独立配置的构建块实现了设计优化,并能进行适当规模的部署
- 可预测性:确定的 QoS
- 可部署性:市场上优秀的 TOPS/mm2,可确保理想的处理/芯片尺寸设计
持续关注
订阅我
们的新闻
立即注册,
即可收到直接发送到收件箱
的有用资源