본문 바로가기

AI/이론

Quantization

 

Quantization - Neural Network Distiller

Quantization Quantization refers to the process of reducing the number of bits that represent a number. In the context of deep learning, the predominant numerical format used for research and for deployment has so far been 32-bit floating point, or FP32. H

nervanasystems.github.io

 

 

 

텐서플로우에서의 양자화 (Quantize) 시키는 방법

[이글은 https://www.tensorflow.org/performance/quantization 의 내용을 한글로 번역/의역한 내용입니다. 주관적 의견이 첨가되었으니 잘못된 해석이 있다면 지적하여 주시면 감사하겠습니다.] 뉴럴넷 이 처��

itteckmania.blogspot.com

 

 

 

 

 

How to Quantize Neural Networks with TensorFlow

Picture by Jaebum Joo I’m pleased to say that we’ve been able to release a first version of TensorFlow’s quantized eight bit support. I was pushing hard to get it in before the Em…

petewarden.com

 

 

 

Binarized CNN on FPGA

Binarized CNN을 FPGA에 실장하는 과정과 평가결과에 대한 내용

www.slideshare.net

 

 

정량화 · 텐서플로우 문서 한글 번역본

텐서플로우를 이용하여 신경망 양자화(Quantize) 하는 방법 (v1.0) 최신 신경망이 개발될 때, 가장 큰 도전은 어떻게든 일을 하게 하는 것이였다. 이것 은 학습에서 정확도와 속도가 가장 중요했다는

tensorflowkorea.gitbooks.io

'AI > 이론' 카테고리의 다른 글

[ML] ResNet 2  (0) 2020.08.18
[ML] ResNet 1  (0) 2020.07.30
[ML] Supervised/Unsupervised learning  (0) 2020.06.15
[ML] Activation function  (0) 2020.06.15
[ML] CNN(Convolutional Neural Network)  (0) 2020.06.12