일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- MachineLearning
- 캐나다 은행 계좌 개설
- 캐나다 은행계좌 개설
- DTW
- iterm2꾸미기
- 캐나다 TD 한국인 직원 예약
- 터미널꾸미기
- GenerativeModel
- iterm2환경설정
- agnoster폰트꺠짐
- pytorch
- 캐나다 TDBAnk
- 프라이탁 존버
- 딥러닝
- Generative model
- EATS
- 머신러닝
- 콘도렌트
- GAN
- agnoster폰트깨짐
- Docker
- Normalizing flow
- 캐나다 TD 예약
- agnoster폰트
- 캐나다콘도렌트
- 프라이탁
- 캐나다월세
- Flow
- 캐나다 TD 한국인 예약
- iterm2자동완성
- Today
- Total
목록Normalizing flow (2)
TechNOTE
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/VJOi3/btq34hdQoot/KELTB5y9oLgjK2ztPkSKi1/img.png)
Flow++: Improving Flow-Based Generative Models with Variational Dequantization and Architecture Design Ho et al. 2019 ICML arxiv.org/pdf/1902.00275.pdf Contribution 이 논문에서 주장하는, 이전 Flow model들의 세 가지 단점. 1. Dequantization을 위해 사용하는 uniform noise는 최적의 training loss, generalization 효과를 내는 선택이 아니다. 2. 일반적으로 사용되는, affine coupling flow들은 충분히 표현력이 강하지 않다. 3. coupling layer의 conditioning network에 사용되는 co..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/btWZ02/btq3KeWBMcr/c4NWRXPO7ZOUgKljb0CHo0/img.png)
Normalizing Flow? Normalizing Flow 는 invertible한 bijective function을 쌓아서 만드는 Generative model인데, Affine coupling layer는 그 flow network를 구성하는 방법중에 하나이다 ㅎㅎ 즉 invertible하고 bijective하다는 뜻. 그래서 invertible function이 구하기 쉬워야 하고, log determinant를 구하는 과정이 efficient 해야 하는데 이 둘 다에 해당한다. 그래서 어떻게 되나 한번 보자.. ㅎㅎ Affine Coupling Layer $$x_a, x_b = split(x)$$ $$ m, logs = NN(x_a) $$ $$ x_b = m + x_a * exp(logs) ..