-
将 TensorFlow Lite 模型转换为 ONNX
ONNX 旨在将深度学习框架联系在一起。TF2ONNX 将 TensorFlow 模型转换为 ONNX ,这样其他深度学习系统可以从 TensorFlow 的功能中受益。但 TF2ONNX 当前不支持量化。并且有些模型仅以 TensorFlow Lite 格式发布。本文介绍了 TFLite2ONNX ,它能将量化的 TFLite 模型转换为 ONNX 。
-
Convert TensorFlow Lite Models to ONNX
ONNX aims to bridge deep learning frameworks together. TF2ONNX was built to translate TensorFlow models to ONNX, therefore other deep learning systems can benefit from TensorFlow functionality. However, TF2ONNX currently doesn't support quantization. This article introduces TFLite2ONNX which converts TensorFlow Lite models to ONNX with quantization semantic translation enabled.
-
Introducing TFLite Parser Python Package
I have being maintaining the TFLite parser python package since September 2019. With which people can parse TensorFlow Lite models with one single import tflite.
-
Boost Quantization Inference Performance
This artical summaries techniques utilized in convolution optimization for TVM. With AutoTVM empowered auto-tuning, carefully designed schedule algothrims and fine-grain computation manipulation may achieve impressive optimization results.
-
深度学习系统杂谈
两年前,当我参与到深度学习软件系统的研发和优化时,一个观念逐渐在我脑海中形成——相关的软硬件系统会逐步收敛成标准,或一两个巨无霸。两年过去了,深度学习生态有了很大的变化。 这篇文章主要分析当下深度学习系统的现状,对一些热门话题做一些探讨,简单谈一下对未来趋势的理解。
-
虚拟机与二进制翻译技术拾遗
虽然项目的成功与否不是技术能决定的,但技术依然长存,最多换个名字。
-
QNNPACK 实现揭秘
QNNPACK 是 Facebook 开发的专门用于量化神经网络计算的加速库,其卓越的性能表现一经开源就击败了几乎全部已公开的加速算法。
-
卷积神经网络优化算法
随着技术的发展,研究人员提出了多种卷积优化算法,包括 Im2col、Winograd 等等。本文简要介绍几种常见的优化方法,并讨论作者在该领域的一些经验。
-
Neural Network Pruning Papers
List some papers related to Neural Networks Pruning that I have read recently.
-
通用矩阵乘(GEMM)优化算法
本文简要介绍通用矩阵乘(General Matrix Multiplication)优化的基本概念和方法、神经网络量化中的优化方法。旨在帮助大家在概念中建立一些直觉,无甚高论。