일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- agnoster폰트꺠짐
- MachineLearning
- Docker
- 프라이탁
- 캐나다 은행계좌 개설
- Flow
- 캐나다 TD 한국인 직원 예약
- 프라이탁 존버
- Generative model
- GAN
- iterm2환경설정
- GenerativeModel
- 콘도렌트
- agnoster폰트깨짐
- pytorch
- EATS
- 터미널꾸미기
- DTW
- 캐나다 TDBAnk
- 캐나다월세
- Normalizing flow
- 머신러닝
- 캐나다 TD 한국인 예약
- 캐나다 TD 예약
- 캐나다 은행 계좌 개설
- 캐나다콘도렌트
- agnoster폰트
- iterm2꾸미기
- iterm2자동완성
- 딥러닝
- Today
- Total
TechNOTE
[논문리뷰] Soft Dynamic Time Warping 본문
Dynamic Time Warping은 두 시간 시퀀스를 더 잘 비교하기 위한 metric
Soft Dynamic Time Warping은 optimal 한 Path 만을 고려하는 DTW 와는 다르게 다른 path들도 같이 고려하는 metric
Differentiable 해서 딥러닝에도 사용이 가능하다고 한다.
이 그림에 보면 보라색 부분 cost 가 optimal 이다..
이 알고리즘을 설명하면
이거인데 이거 그냥 a1, an까지의 선택지가 있을때 gamma=0일때는 일반적인 DTW 로 minimum만 고르는거고 아닐 때는 위의 식처럼 모든 path들을 계산해 주는 거다. 시간복잡도는 O(nm)인데 줄이자면 O(2n)으로 줄일 수 있지만 어차피 backward 에 보내야 할 때 다시 계산해야하기때문에 그냥 O(nm)의 방식으로 했다고 한다.
자 미분.. 을 해보자.
결국 우리가 알고싶은건 이 gradient 값인데
R = [ri,j] 를 얻었다고 했을 때 r n,m에는 모든 경로들의 계산값이 다들어있다. 결국 r n, m을 통해서 gradient를 흘려보내줘야 한다는 뜻인데, 이는 chain rule을 통해서 구해볼 수 있다.
이렇게 ... 된다.
임에 주목한다면 . 여기서 eats의 경우, warping penalty가 추가된다. warping penalty c 도 식에 추가해 넣어보자.
글씨가 좀 이상하지만.. 다음과 같다.
r i,j 에 대해서 미분한 값은 다음 결과를 주는데,
dtw 의 경우는 다음과 같음
따라서 이 식에 그냥 -1 값이 된 거.. 계산은 되겠고 이제 EATS 수도코드 랑 조합해서 생각해봐야겠다 .. 투비 컨티뉴..
'딥러닝, 연구' 카테고리의 다른 글
Normalizing flow 설명 (0) | 2020.12.01 |
---|---|
[논문리뷰] VAE(Auto-Encoding Variational Bayes) (0) | 2020.11.27 |
[논문리뷰] CGANS with Projection Discriminator (0) | 2020.11.23 |
[리뷰] GAN, Generative Adversarial Nets (0) | 2020.11.21 |
Dynamic Time Warping 에 대한 고찰.. (0) | 2020.10.28 |