Abstract 본 연구가 다루는 Task는 다변량 시계열 예측 대조학습과 트랜스포머 기반 모델이 좋은 성능을 거뒀었지만 몇 가지 문제점 존재 대조학습 기반 사전학습과 Downstream 예측 Task가 Inconsistent함 트랜스포머 기반 모델은 심각한 Distribution shift 문제를 야기하게 되고, 자기지도 학습 방법들에 비해 시퀀스 정보를 제대로 활용하지 못함 Ti-MAE는 완벽한 distribution을 따르도록 입력 시계열이 가정되어 있음 시계열 일부를 마스킹하고 point-level에서 재복원하는 모델 마스크 모델링을 auxiliary task로 채택하고 기존의 표현학습과 생성 트랜스포머 기반 방법론을 연결하여 upstream과 downstream 예측 task의 차이를 줄임 실험..