2024 딥러닝/Time-series 논문 리뷰 30

[논문 리뷰] Towards Explaining Distribution Shifts (ICML 2023)

방법론의 목적 기존 연구 대부분은 변화가 발생했는지 여부를 탐지하는 데에만 초점을 맞추고 있으며, 탐지된 변화를 인간이 적절히 이해하고 처리할 수 있다고 가정함.이러한 수작업 완화 작업을 지원하기 위해, 원본 분포에서 변환된 분포로 이동을 설명할 수 있도록 함.class distribution shift에 대한 대응 (=ex. 이상일때 shift발생하는데, 정상일때와 뭐가 다르길래 발생하는지 알려줌) 주목해야할 점 Interpretable Transportation Map을 활용하여 분포 변화를 설명하는 방법론 Transportation Map 소스와 타겟 두 분포 사이의 관계를 설명하기 위해, 데이터를 한 분포에서 다른 분포로 변환하는 map ex. 변환 맵이 간단한 수학 공식이나..

[Time-series 논문 리뷰] Explaining Time series via Contrastive and Locally Sparse Perturbations (ICLR 2024)

방법론의 목적 1) 시계열 데이터의 복잡성과 해석의 어려움시계열 데이터의 특성:다차원(multivariate) 데이터: 여러 센서 또는 관찰 데이터가 시간에 따라 변동.시간 패턴: 데이터가 시간적으로 연속적이면서 특정 구간에서 중요한 정보가 나타남.기존 설명 기법:이미지나 텍스트 데이터에 잘 작동하는 설명 기법을 시계열 데이터에 바로 적용하기 어려움.시계열 데이터의 복잡한 시간적 패턴과 연관성을 충분히 반영하지 못함.전역적 접근: 샘플 간 이질성을 반영하지 못함ContraLSP의 필요성:복잡한 시간적 특징을 설명할 수 있는 전용 모델 필요.중요한 시간 구간과 관찰 값을 효과적으로 식별하는 능력 요구.2) 기존 XAI 기법의 한계기존 기법(대표: Saliency Map, Shapley Value, LIME..

[Time-series 논문 리뷰] Large language models can be zero-shot anomaly detectors for time series? (DSAA 2024)

본 논문에서는 LLM을 활용하여 시계열 데이터에서 이상 탐지하는 방법을 제안하는데, 이를 위해 SIGLLM이라는 프레임워크 개발함. SIGLLM은 시계열 데이터를 text형식으로 변환해 LLM에 입력하고, 이를 기반으로 2가지 접근법을 사용하여 이상을 탐지함. (PROMPTER, DETECTOR) 1. 시계열 데이터 변환 과정 (LLMTIME과 유사)시계열 데이터를 LLM이 처리할 수 있도록 하기 위해 몇가지 전처리 과정을 거침.1) 스케일링(Scaling)- 데이터의 최솟값을 기준으로 값을 이동하여 비음수로 변환함.- 예를 들어, $X=(x_1, x_2, ... , x_T)$가 주어지면, 각 데이터 포인트에 대해 $x_{t}^{'}=x_t-min(X)$로 변환해 음수를 제거하고 데이터의 범위 조절 2)..

[Time-series 논문 리뷰] DACAD: Domain Adaptation Contrastive Learning for Anomaly Detection in Multivariate Time Series

문제 설정- DACAD는 라벨이 없는 타겟 시계열 데이터셋 T에서 라벨이 있는 소스 데이터셋 S를 사용하여 이상탐지하는 모델- 소스 데이터는 정상과 이상 라벨O, 타겟 데이터는 라벨X Anomaly Injection- 타겟 데이터에 라벨이 없기에, DACAD는 이상 주입 방법으로 합성된 이상을 만들어냄- 이 과정에서 소스 데이터의 정상 샘플 $S_{norm}$과 타겟 데이터 T에 합성 이상을 추가하여 새로운 샘플 집합 $S_{inj}$와 $T_{inj}$를 생성함- 모델이 다양한 유형의 이상 학습하는데에 도움됨 TCN- TCN을 통해 시계열 window의 주요 특징 추출- 변환된 특징 공간에서 4가지로 나눌 수 있음- $\varphi^R(S)$ : 소스 window의 representation- $\va..

[Time-series 논문 리뷰] TimeCMA: Towards LLM-Empowered Time Series Forecasting via Cross-Modality Alignment

방법론의 목적 기존 prompt 기반 LLM이 데이터 얽힘 문제로 인해 성능저하 발생했기에,프롬프트 기반 LLM에서 얻은 얽힌 임베딩에서 시계열 정보와 단어 정보를 분리하고, 여러 변수 간의 의존성을 효과적으로 학습하여 더 나은 다변량 시계열 예측을 하기 위함  주목해야할 점 Dual-Modality Encoding (시계열과 시계열 값(숫자)를 포함한 prompt가 함께 input됨)  방법론  Dual-Modality Encoding1) Time Series Encoding Branch목적: 임베딩된 벡터를 인코더에 입력하여 여러 변수 간의 복잡한 시간적 의존성을 포착하기 위함방법: embedding → layer norm → multi-head attention→layer norm→FFN2) LLM..

[Time-series 논문 리뷰] LSTPrompt: Large Language Models as Zero-Shot Time Series Forecastersby Long-Short-Term Prompting

방법론의 목적 기존의 제로샷 TSF 프롬프트 전략은 TS 데이터를 숫자 문자열로 표현하고 TSF 작업을 텍스트 기반의 다음 토큰 예측으로 간주그러나 이러한 전략은 동적 TS 데이터에 내재된 정교한 예측 메커니즘의 필요성을 간과함.명확한 지침이 없으면 기존 전략은 높은 불확실성을 가진 부정확한 예측을 초래(=단순히 나열된 숫자만 가지고 다음을 예측하는 것은 예측에 필요한 다양한 요인들 고려안한것)  주목해야할 점 Chain-of-Thought, Time Breath  방법론 GPT-3.5 TurboGPT-4 사용 (best)  Time Decomposition1) Chain-of-Thought목적: TSF 작업을 체계적인 추론을 위함방법: 특정 dataset으로 task prompt → task를 장단기 ..

[Time-series 논문 리뷰] Large Language Models Are Zero-Shot Time Series Forecasters (NeurIPS 2023)

방법론의 목적LLM을 backbone으로 활용하여 zero-shot 시계열 예측하기 위함  주목해야할 점LLM에 들어가기 위한 전처리 방법들   방법론 개념도 설명데이터예시[150, 153, 157, 155, 160, ...]인코딩:시계열 데이터를 LLM이 이해할 수 있는 형식으로 변환'150, 153, 157, 155, 160' → "1 5 0 , 1 5 3 , 1 5 7 , 1 5 5 , 1 6 0"모델 입력:LLM에 변환된 문자열을 입력모델은 이 입력을 기반으로 다음에 나올 값을 예측하는 '토큰' 예측 문제를 해결"1 5 0 , 1 5 3 , 1 5 7 , 1 5 5 , 1 6 0"을 입력받고, 그 다음에 나올 값을 예측\예측 샘플링:LLM은 여러 번의 샘플링을 통해 다양한 예측 결과를 생성[162..

[Time-series 논문 리뷰]TranAD: Deep Transformer Networks for Anomaly Detection in Multivariate Time Series Data(VLDB, 2022)

- 2024.05.20 기준 311회 인용 - Transformer구조와 Adversarial training을 다변량 시계열 데이터에 접목시킨 연구  ∎ Contribution - Transformer 구조를 통해 기존 다변량 시계열 데이터에서의 anomaly detection 개선 - 전체적인 시점정보와 지역적 시점정보 모두 반영하여 시계열 데이터가 지닌 장단기 특징을 반영 - 두 개의 decoder를 지닌 구조로 Adversarial training을 통해 안정적인 학습 및 불량 탐지 효과 개선하여, 정상에 대해 좀 더 강건하고 일반화된 특징을 적절히 학습  1) Architecture - 1개의 Encoder와 2개의 Decoder로 구성 : Encoder는 기존의 Transformer구조와 동일..

[서베이 정리] A review on outlier/anomaly detection in time series data

1. INTRODUCTION 이상치란 ?단변량 시계열1형 이상치: 단일 관측치에 영향2형 이상치: 특정 관측치와 그 이후 관측치에 영향↓ 4종류 이상치로 확장 ↓다변량 시계열이상치의 관점 변화고전적 관점의 이상치다른 관측값과 너무 다르게 벗어나 의심을 불러일으키는 관측값시계열에서 이상치의 2가지 의미Unwanted data → Data cleaning잡음, 오류, 원하지 않는 데이터삭제, 수정ex. 센서 전송 오류; 정확한 예측 얻기 위해 제거Event of interest → outlier자체 분석이상하지만 흥미로운 현상 탐지 위함ex. 사기 탐지  2. A TAXONOMY OF OUTLIER DETECTION TECHNIQUES IN THE TIME SERIES CONTEXT 2.1 Input da..

[Time-series 논문 리뷰] Source-Free Domain Adaptation with Temporal Imputation for Time Series Data(KDD, 2023)

Abstractsource free domain adaptationsource data로 pretrain된 모델을, $x_t$로만 adaptation 시키는 것기존 연구 한계비전쪽에서는 널리 사용, but 시계열에서는 사용X비전쪽에서 설계된 기존 SFDA → 시계열의 동적 특성 처리X제안하는 것: MAPU소스 도메인의 시간 정보를 포착하기 위해, 우리의 방법은 시계열 신호에 무작위 마스킹을 수행하면서 임베딩 공간에서 마스킹된 버전에서 원래 신호를 복구하기 위해 새로운 시간적 이입자를 활용adaptation 단계에서, 이입자 네트워크는 소스 특성과 시간적으로 일관된 타겟 특성을 생성하도록 타겟 모델을 안내하는 데 사용1. INTRODUCTION[1] UDA 소개UDA?미리 라벨이 지정된 소스 데이터를 이용..