전체 글 61

[REVIEW] SigDiffusions - Score-based diffusion models for time series via log-signature embeddings

Barancikova, Barbora, Zhuoyue Huang와/과Cristopher Salvi. “SigDiffusions: Score-Based Diffusion Models for Time Series via Log-Signature Embeddings”. Conference paper presented at The Thirteenth International Conference on Learning Representations. 2024년. https://openreview.net/forum?id=Y8KK9kjgIK1. 문제 설정 (Problem)목표는 긴 길이(long-horizon)·다변량(multivariate) time series를 고품질로 생성하는 generative model을 설계..

고급계량경제학 - Dynamic Causal Effects

서명환 교수님 고급 계량 경제학 교재(2025-2) 참고함!0. 문제의식: 시계열에서 인과효과란 무엇인가이 장은 다음 질문에서 출발한다.“시계열 데이터에서 X가 Y에 미치는 시간에 따라 분포된 인과효과를 어떻게 정의하고 추정할 수 있는가?”직관적 의미어떤 충격이나 정책이 발생했을 때 그 영향이 한 시점에서 끝나는 것이 아니라, 이후 여러 시점에 걸쳐 어떻게 나타나는지를 묻는다.이상적인 기준 (benchmark)무작위 대조실험 (Randomized Controlled Trial)독립적인 여러 개체처치 이후 여러 시점의 결과 관측\(k\)기 후 인과효과를 직접 비교 가능직관적 의미여러 개체가 있고 처치가 무작위라면, 시간별 평균 비교를 통해 자연스럽게 동적 인과효과를 추적할 수 있다.시계열의 근본적 문제개체..

카테고리 없음 2026.01.27

[Review] Deep Signature Transforms (NeurIPS 2019)

Kidger, Patrick, Patric Bonnier, Imanol Perez Arribas, Cristopher Salvi, Terry Lyons. “Deep Signature Transforms”. Advances in Neural Information Processing Systems 32 (2019년). https://papers.nips.cc/paper_files/paper/2019/hash/d2cdf047a6674cef251d56544a3cf029-Abstract.html.Deep Signature Transforms연구 목표 개요이 논문의 목표는 Signature Transform을기존처럼 고정된 전처리(feature transformation)로 사용하는 방식에서 벗어나,이를 Neura..

[REVIEW] On Consistency of Signature Using Lasso

1) 문제 설정: “시그니처 + Lasso”에서 무엇이 어려운가시그니처란?시그니처(Signature transform)는 연속 시간 경로 \(X_t\)로부터 반복 적분(iterated integrals)을 만들어내는 특징 벡터로 정의한다.✏️NoteDefinition 1 (Signature)연속시간 \(d\)-차원 process \(X = (X^1, \dots, X^d)\)가 \([0,T]\)에서 정의되어 있다고 하자.\(k \ge 1\)이고 \((i_1,\dots,i_k) \in \{1,2,\dots,d\}^k\)일 때, time \(0\)부터 \(t\)까지의 \(k\)-차 Signature component는 다음과 같이 정의한다. \[S(X)^{i_1,\dots,i_k}_t = \int_{00차 S..

Part 5. 직관적으로 정리한 Measure Theory

Product Measure와 Cavalieri’s Principle고차원 적분을 정당화하는 측도론적 틀곱측도(product measure)와 카발리에리의 원리(Cavalieri’s principle)는 두 개의 측도공간을 결합해 고차원 공간에서 넓이·부피를 정의하고, 이를 단면과 적분으로 계산할 수 있게 하는 핵심 이론이다.이는 \(\mathbb{R}^2, \mathbb{R}^3\)에서 사용하는 이중적분·삼중적분의 이론적 근거를 제공한다.왜 이 주제가 중요한가고차원 적분에서 “먼저 한 변수에 대해 적분하고, 다음 변수에 대해 적분한다”는 절차는 직관적으로는 자연스럽지만, 항상 성립하는 것은 아니다.곱측도는 고차원 공간에서의 ‘부피’ 개념을 엄밀하게 정의하고, 카발리에리의 원리는 그 부피를 단면 적분으로..

수학 2026.01.13

Part 4. 직관적으로 정리한 Measure Theory

Carathéodory’s Extension Theorem:pre-measure를 measure로 확장하는 정리Carathéodory’s Extension Theorem은 algebra(또는 semiring) 위의 pre-measure를 그 algebra가 생성하는 \(\sigma\)-algebra 위의 measure로 (적절한 조건에서 유일하게) 확장할 수 있음을 보장한다.왜 이 정리가 measure theory에서 핵심인지Carathéodory’s Extension Theorem은 “measure를 어떻게 만들어야 하는가”에 대한 표준 해법을 제공한다.실제로 우리가 쓰는 대부분의 measure(예: Lebesgue measure, Borel measure, 확률분포에 대응하는 measure)는 처음부..

수학 2026.01.13

Part 3. 직관적으로 정리한 Measure Theory

Lebesgue integral (르벡 적분)리만 적분 복습리만 적분은 정의역을 분할해 면적을 근사하는 방식이다.리만 적분의 직관적 정의리만 적분은 구간 \([a,b]\)를 분할 \(P=\{a=x_0로 쪼개고, 각 부분구간 \(I_i=[x_{i-1},x_i]\)에서 함수값을 이용해 직사각형 면적을 합산하는 극한으로 정의한다.리만 적분 가능성은 “상합과 하합이 같은 값으로 모이는가”로 판정한다.하합은 각 구간의 최솟값으로 만든 면적 합이다.\[L(f,P)=\sum_{i=1}^{n}\left(\inf_{x\in I_i} f(x)\right)\Delta x_i\]상합은 각 구간의 최댓값으로 만든 면적 합이다.\[U(f,P)=\sum_{i=1}^{n}\left(\sup_{x\in I_i} f(x)\right)\..

수학 2026.01.12

Part 2. 직관적으로 정리한 Measure Theory

👉Lebesgue measure (르벡 측도) 복습Lebesgue measure는\(\mathbb R^n\)에서 길이·넓이·부피라는 기하학적 직관을극한, 분해, 적분과 완전히 양립하도록 만든 표준적인 measure (측도)이다.르벡 측도는 다음 성질들을 동시에 만족한다.단위 큐브의 부피가 1이다.translation invariance (평행이동 불변성)을 가진다.scaling rule (스케일 규칙)을 따른다.countable additivity (가산 가법성)을 만족한다.completeness (완비성)을 가진다.즉,“우리가 부피라고 부르고 싶은 모든 성질을 끝까지 밀어붙인 결과”가르벡 측도다.👉우리가 원래 하고 싶었던 목표측도론과 해석학의 목표는 아래처럼 나타낼 수 있다.“집합의 크기를 재고,함..

수학 2026.01.12

Part 1. 직관적으로 정리한 Measure Theory

👉 출발점: 우리가 진짜로 하고 싶은 것측도론의 목적“집합의 크기(길이, 넓이, 확률)를 숫자로 재고 싶다.”이때 재는 대상은 점이 아니라 집합(사건)이다 👉 그냥 다 재면 안 되나?그래서 처음엔 이렇게 생각한다.“\(X\)의 모든 부분집합에 크기를 정의하면 되지 않나?”이게 바로 P(X)이다.즉 , \(P(X)\) = 재고 싶은 모든 후보를 다 모아놓은 것이다.P(X) = power set of set \(X\): 집합 \(X\)의 모든 부분집합들을 원소로 가지는 새로운 집합한국어로 ‘멱집합’\(P(X)\)로 나타냄ex) \(X=\{a,b\}\)이면 \(P(X)=\{\varnothing,\; X,\; \{a\},\; \{b\}\}\)measure theory에서의 직관적 의미: \(X\)에서 구분할..

수학 2026.01.12

supervised/unsupervised/self-supervised learning

1. Supervised Learning (지도학습)사람이 직접 라벨링한 데이터를 이용해서 모델을 학습시킴.예: 고양이/강아지 이미지마다 "cat", "dog" 라벨을 붙이고, 모델이 이를 구분하도록 학습비싸지만 성능이 좋음.2. Unsupervised Learning (비지도학습)라벨이 없는 데이터만 줌모델이 데이터 안의 패턴이나 구조를 알아서 찾아냄대표적 예: 클러스터링 → 비슷한 위치에 있는 데이터를 같은 그룹으로 묶음저렴하지만 성능이 떨어짐.3. Self-Supervised Learning (자기지도학습)라벨은 존재하지만 사람이 만든 게 아님 (=supervised보다 저렴하고, unsupervised보다 성능이 좋음) supervised에서는:입력: 이미지라벨: 사람이 붙임 (ex. dog, c..

카테고리 없음 2025.10.05