Quantization - Neural Network Distiller
Quantization Quantization refers to the process of reducing the number of bits that represent a number. In the context of deep learning, the predominant numerical format used for research and for deployment has so far been 32-bit floating point, or FP32. H
nervanasystems.github.io
텐서플로우에서의 양자화 (Quantize) 시키는 방법
[이글은 https://www.tensorflow.org/performance/quantization 의 내용을 한글로 번역/의역한 내용입니다. 주관적 의견이 첨가되었으니 잘못된 해석이 있다면 지적하여 주시면 감사하겠습니다.] 뉴럴넷 이 처��
itteckmania.blogspot.com
How to Quantize Neural Networks with TensorFlow
Picture by Jaebum Joo I’m pleased to say that we’ve been able to release a first version of TensorFlow’s quantized eight bit support. I was pushing hard to get it in before the Em…
petewarden.com
Binarized CNN on FPGA
Binarized CNN을 FPGA에 실장하는 과정과 평가결과에 대한 내용
www.slideshare.net
정량화 · 텐서플로우 문서 한글 번역본
텐서플로우를 이용하여 신경망 양자화(Quantize) 하는 방법 (v1.0) 최신 신경망이 개발될 때, 가장 큰 도전은 어떻게든 일을 하게 하는 것이였다. 이것 은 학습에서 정확도와 속도가 가장 중요했다는
tensorflowkorea.gitbooks.io
'AI > 이론' 카테고리의 다른 글
[ML] ResNet 2 (0) | 2020.08.18 |
---|---|
[ML] ResNet 1 (0) | 2020.07.30 |
[ML] Supervised/Unsupervised learning (0) | 2020.06.15 |
[ML] Activation function (0) | 2020.06.15 |
[ML] CNN(Convolutional Neural Network) (0) | 2020.06.12 |