일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- 콘도렌트
- Flow
- 프라이탁 존버
- 딥러닝
- 프라이탁
- 캐나다콘도렌트
- agnoster폰트
- Normalizing flow
- GenerativeModel
- MachineLearning
- 캐나다 TD 예약
- 캐나다 TDBAnk
- 캐나다 은행계좌 개설
- agnoster폰트꺠짐
- Generative model
- iterm2자동완성
- iterm2환경설정
- 터미널꾸미기
- Docker
- iterm2꾸미기
- EATS
- pytorch
- 캐나다 TD 한국인 예약
- 캐나다월세
- 머신러닝
- DTW
- 캐나다 은행 계좌 개설
- 캐나다 TD 한국인 직원 예약
- agnoster폰트깨짐
- GAN
- Today
- Total
TechNOTE
[논문리뷰] Soft Dynamic Time Warping 본문
Dynamic Time Warping은 두 시간 시퀀스를 더 잘 비교하기 위한 metric
Soft Dynamic Time Warping은 optimal 한 Path 만을 고려하는 DTW 와는 다르게 다른 path들도 같이 고려하는 metric
Differentiable 해서 딥러닝에도 사용이 가능하다고 한다.
이 그림에 보면 보라색 부분 cost 가 optimal 이다..
이 알고리즘을 설명하면
이거인데 이거 그냥 a1, an까지의 선택지가 있을때 gamma=0일때는 일반적인 DTW 로 minimum만 고르는거고 아닐 때는 위의 식처럼 모든 path들을 계산해 주는 거다. 시간복잡도는 O(nm)인데 줄이자면 O(2n)으로 줄일 수 있지만 어차피 backward 에 보내야 할 때 다시 계산해야하기때문에 그냥 O(nm)의 방식으로 했다고 한다.
자 미분.. 을 해보자.
결국 우리가 알고싶은건 이 gradient 값인데
R = [ri,j] 를 얻었다고 했을 때 r n,m에는 모든 경로들의 계산값이 다들어있다. 결국 r n, m을 통해서 gradient를 흘려보내줘야 한다는 뜻인데, 이는 chain rule을 통해서 구해볼 수 있다.
이렇게 ... 된다.
임에 주목한다면 . 여기서 eats의 경우, warping penalty가 추가된다. warping penalty c 도 식에 추가해 넣어보자.
글씨가 좀 이상하지만.. 다음과 같다.
r i,j 에 대해서 미분한 값은 다음 결과를 주는데,
dtw 의 경우는 다음과 같음
따라서 이 식에 그냥 -1 값이 된 거.. 계산은 되겠고 이제 EATS 수도코드 랑 조합해서 생각해봐야겠다 .. 투비 컨티뉴..
'딥러닝, 연구' 카테고리의 다른 글
Normalizing flow 설명 (0) | 2020.12.01 |
---|---|
[논문리뷰] VAE(Auto-Encoding Variational Bayes) (0) | 2020.11.27 |
[논문리뷰] CGANS with Projection Discriminator (0) | 2020.11.23 |
[리뷰] GAN, Generative Adversarial Nets (0) | 2020.11.21 |
Dynamic Time Warping 에 대한 고찰.. (0) | 2020.10.28 |