手机
便携的 AI
每台智能手机都使用 AI 增强用户体验。设计师使用设备端 AI 实现新的功能,并降低对云的依赖。选择适合移动 SoC 和 ASIC 设计的 AI 处理器 IP 对良好用户体验至关重要。
通过 AI 增强用户体验
智能手机制造商正在为其产品增添更多的 AI 能力。这是一项充满挑战的工作,因为他们必须在日益增长的计算需求和严格受限的功耗和面积预算之间做出平衡。他们不再依赖应用处理器 (AP) 常用的通用型 NPU,这种神经处理器通常性能不佳,而且不够节能。相反,系统架构师开始转向 AI 协处理器。通过这种协处理器,可以针对特定的智能手机用例对 AI 处理进行定制,从而大幅提升性能而不牺牲续航能力。无缝集成的设备端 AI 大大增强了用户体验,这变成了一项差异化的竞争优势。
随时感应的专用 NPU
随时感应的摄像头不断对视觉数据进行采样和分析,识别与用户行为和环境相关的触发因素。就像随时监听应用一样,“随时感应”可以提供更自然的无缝用户体验。但是摄像头数据存在质量、丰富度和隐私问题,这需要专用的 AI 处理。虽然应用处理器内置有 NPU,但并不适合特殊的随时感应需求。艾伯德 LittleNPU 经过优化,可处理领先 OEM 制造商在随时感应应用中使用的低功耗、高质量神经网络。LittleNPU 的功耗通常低至 10-20mW,它将所有摄像头数据保存在随时感应子系统中,并与设备安全实现携手保护用户数据。
适合智能手机的理想架构
Origin 神经引擎 IP 采用艾伯德基于数据包的独特架构,其效率远超基于层的通用架构。这款架构可以跨层并行执行任务,优化资源利用率,带来确定的性能。此外还不需要针对特定硬件进行优化,客户无需更改就可以运行其训练好的神经网络,而不牺牲模型准确度。这种创新的方法大大提升了性能,同时降低了功耗、面积和延迟。
专为您的应用打造
定制带来诸多好处,包括提高了性能,降低了延迟,减小了功耗,以及杜绝了芯片面积浪费。艾伯德在设计阶段与客户合作,了解其用例、PPA 目标和部署需求。借助于上述信息,我们将 Origin IP 配置成一种完美适配具体应用的定制解决方案。
现场更新,满足未来需求
随着 AI 技术和网络的快速进化,任何 AI 部署都必须能够进行现场更新,包括新网络。Origin IP 具有足够的灵活性,可以在智能手机或其他设备出货后部署公共、专用和定制的神经网络。
超节能性能
用户需要功能丰富而且可以用一整天的设备。Origin IP 在功耗和性能之间实现理想的平衡,支持全新和新兴的 AI 用例,而其功耗远低于通用型 NPU。