일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- EATS
- 딥러닝
- 캐나다 은행 계좌 개설
- Docker
- 콘도렌트
- 터미널꾸미기
- iterm2꾸미기
- iterm2자동완성
- 캐나다 은행계좌 개설
- 캐나다 TD 예약
- iterm2환경설정
- 캐나다콘도렌트
- 프라이탁
- 캐나다 TD 한국인 예약
- pytorch
- 캐나다월세
- Flow
- 머신러닝
- MachineLearning
- GAN
- 프라이탁 존버
- agnoster폰트깨짐
- Generative model
- DTW
- 캐나다 TD 한국인 직원 예약
- 캐나다 TDBAnk
- agnoster폰트꺠짐
- Normalizing flow
- agnoster폰트
- GenerativeModel
- Today
- Total
목록Normalizing flow (2)
TechNOTE
Flow++: Improving Flow-Based Generative Models with Variational Dequantization and Architecture Design Ho et al. 2019 ICML arxiv.org/pdf/1902.00275.pdf Contribution 이 논문에서 주장하는, 이전 Flow model들의 세 가지 단점. 1. Dequantization을 위해 사용하는 uniform noise는 최적의 training loss, generalization 효과를 내는 선택이 아니다. 2. 일반적으로 사용되는, affine coupling flow들은 충분히 표현력이 강하지 않다. 3. coupling layer의 conditioning network에 사용되는 co..
Normalizing Flow? Normalizing Flow 는 invertible한 bijective function을 쌓아서 만드는 Generative model인데, Affine coupling layer는 그 flow network를 구성하는 방법중에 하나이다 ㅎㅎ 즉 invertible하고 bijective하다는 뜻. 그래서 invertible function이 구하기 쉬워야 하고, log determinant를 구하는 과정이 efficient 해야 하는데 이 둘 다에 해당한다. 그래서 어떻게 되나 한번 보자.. ㅎㅎ Affine Coupling Layer $$x_a, x_b = split(x)$$ $$ m, logs = NN(x_a) $$ $$ x_b = m + x_a * exp(logs) ..