2021 年 4 月 19 日,加州圣克拉拉 — Expedera Inc. 从默默无闻中脱颖而出,今天宣布推出其 Origin 神经网络引擎,这是业界用于边缘系统的高速、高能效 AI 推理 IP。 经过硅验证的深度学习加速器 (DLA) 在 7nm 下提供高达 18 TOPS/W — 是竞争产品的十倍,同时将内存需求降至最低水平。 Origin 加速了神经网络模型的性能,如目标检测、识别、分割、超分辨率和自然语言处理。 这款产品面向移动、消费者、工业和汽车等市场。
AI 处理正日益向边缘发展,对高性能、节能的硅解决方案的需求激增。 智能手机、智能扬声器、家庭安全摄像头、监控系统以及配备高级驾驶辅助系统 (ADAS) 的汽车都在采用内置的深度学习加速器。 由于功耗、散热和部署产品成本方面的限制,边缘 AI 处理的要求与云端不同,并因应用的不同而存在很大差异。 当前解决方案无法在将功耗保持在最低水平的同时提供所需的性能。 艾伯德通过其 Origin IP 系列实现了可配置的节能 AI 推理,满足边缘应用的多样化需求。 家排名前五的智能手机客户已经获得了 IP 的许可,验证了这种方法。
“艾伯德创造了独特的原生执行概念,大幅简化了 AI 硬件和软件栈。因此,当以 TOPS/W 或更重要的 IPS/W 来衡量实际神经网络时,这种架构比竞争对手的效率要高得多,”The Linley Group 首席分析师 Linley Gwennap 表示。 “在任何一个指标上,艾伯德的设计都比 Arm、联发科、英伟达和高通等领先供应商的其他 DLA 模块表现更优秀,达到了至少 4 至 5 倍。使用艾伯德的 7nm 测试芯片进行的测量验证了这一优势。”
艾伯德首席执行官兼联合创始人 Da Chuang 表示:“受团队在网络处理方面的广泛背景的启发,我们采用了一种新的 AI 加速方法。我们创建了一个 AI 架构,这使我们能够将整个网络模型作为元数据加载,并使用极少的内存原生运行。 如果以 TOPS/W 或 ResNet-50 IP/W 来绘制性能,您会发现所有其他供应商都会达到约 4 TOPS/W 或 550 IP/W 的限制。然而,我们可以以 18 TOPS/W 或 2000 IP/W 打破这一限制。由于我们的硬件以单片方式处理模型,我们不会受内存带宽的限制,可以扩展到超过 100 TOPS。
技术细节和规格
Origin 的高 TOPS/W 和最低水平的内存需求意味着,可以减少芯片面积,显著提高带宽,同时降低热设计功耗 (TDP) 以实现被动散热。 所有这些都意味着更低的硅成本、低成本的物料清单 (BOM) 和更高的性能。 艾伯德的调度器基于元数据运行,这可简化软件栈,每层控制序列只需约 128 字节的内存。 Origin IP 可以以“发后即弃”的方式运行,无需与主机处理器交互。
艾伯德 Origin 产品系列
Origin E2 适用于智能手机和平板电脑等低功耗边缘设备。 可用配置包括 2.25K、4.5K 或 9K INT8 MAC。
Origin E6 为多种设备提供更高的性能,包括智能手机、计算机、边缘服务器和汽车。 可用配置包括 4.5K、9K 或 18K INT8 MAC。
Origin E8 为包括数据中心和自动驾驶汽车在内的最苛刻应用提供高性能。 可用配置包括 36K 或 54K INT8 MAC。
供货情况
Origin IP 现已面市。 测试芯片可用于评估和基准测试目的。
关于艾伯德
艾伯德提供可扩展的神经网络引擎半导体 IP,能够大幅改善性能、功耗和延迟,同时降低成本和复杂性。 该公司的创新神经网络引擎架构原生运行神经网络模型,实现可扩展的节能性能。 这使得实施能够将内存使用量降至理论上的最低水平,并消除可能限制应用性能的内存瓶颈。 艾伯德的团队包括来自思科、英伟达、AMD 和爱立信的经验丰富的 ASIC 专家。 公司总部设在加州圣克拉拉。 请访问 www.expedera.com。
媒体联系人
Pauline Shulman
pauline@pshulman.com