You are here:
AI accelerator (NPU) IP - 16 to 32 TOPS
Origin™ E6 专为以性能和功耗为主要设计目标的应用而设计,包括智能手机、平板电脑和边缘服务器。艾伯德的高级内存管理可确保持续的 DRAM 带宽和理想的总体系统性能。Origin E6 深度学习加速器 (DLA) 具有 16 至 32 TOPS 性能,实际利用率高达 80%(在运行 ResNet 等常见工作负载的片上测量),在图像相关的任务中表现出色,如计算机视觉、图像分类和目标检测。此外,它还能够执行与 NLP(自然语言处理)相关的任务,如机器翻译、句子分类和生成。
查看 AI accelerator (NPU) IP - 16 to 32 TOPS 详细介绍:
- 查看 AI accelerator (NPU) IP - 16 to 32 TOPS 完整数据手册
- 联系 AI accelerator (NPU) IP - 16 to 32 TOPS 供应商
Block Diagram of the AI accelerator (NPU) IP - 16 to 32 TOPS

AI accelerator IP
- AI accelerator (NPU) IP - 1 to 20 TOPS
- AI accelerator (NPU) IP - 32 to 128 TOPS
- Deeply Embedded AI Accelerator for Microcontrollers and End-Point IoT Devices
- Performance Efficiency Leading AI Accelerator for Mobile and Edge Devices
- High-Performance Edge AI Accelerator
- Ultra-low-power AI/ML processor and accelerator