软件可配置的深度神经网络加速IP,支持大多数复杂AI算法算子的硬件加速。提供配套的开发工具,可帮助用户方便地在FPGA中完成部署。
深度神经网络加速内核NPU(Neural Processing Unit),提供卷积、池化和非线性等操作,并提供基本运算指令,高效支持CNN、RNN等常用深度神经网络。可根据具体网络类型和性能需求进行配置,提高计算效能,硬件资源配置为64-2048个MAC的不同计算尺度。
数据类型 | 8bit |
主频 | 1.0GHz@16nm |
计算资源 | 64-2048 MACs可配置 |
峰值性能 | 4TOPS@1GHz |
基本算子 | 卷积、池化、非线性等 |
功耗 | <2w @1GHz |