본문 바로가기

패턴인식과 머신러닝/Ch 01. Introduction5

[베이지안 딥러닝] Appendix. Calculus of Variations (변분법) 2020-2학기 이화여대 김정태 교수님 강의 내용을 바탕으로 본 글을 작성하였습니다. 기존 미분에서 주로 다루는 문제 중 하나로 함수 $y(x)$를 최대화하거나 최소화하는 $x$값을 찾는 것이 있다. 이와 비슷하게 Calculus of Variations(변분법)에서는 범함수 $F[y]$를 최대화하거나 최소화하는 함수 $y(x)$를 찾는 문제를 다룬다. 모든 가능한 함수 $y(x)$들 중에서 $F[y]$를 최대화하거나 최소화하는 특정 함수를 찾는 것이다. 오일러 라그랑주 공식을 이용해서 구할 수 있는데. 우선 오일러 라그랑주 공식 [식 (2)]을 살펴보자. Therrem 1.1 The minimizing functional of the following objective function $$F(y) = .. 2021. 2. 8.
[베이지안 딥러닝] Introduction - Decision Theory and Information Theory I 2020-2학기 이화여대 김정태 교수님 강의 내용을 바탕으로 본 글을 작성하였습니다. Overview Decison Theory Information Theory Decision problem 패턴 인식 문제를 풀 때는 불확실성이 존재하는 상황에서 의사 결정을 내려야 하는 경우가 많다. 이런 상황에서 결정 이론과 확률론을 함께 사용하면 최적의 의사 결정을 내릴 수 있다. We observe random vector $\mathbf{x}$ and try to determine the probability of $C_k$ which represents the probability of an event belongs to the class $k$.. Determining $p(\mathbf{x}, C_k )$.. 2020. 9. 29.
[베이지안 딥러닝] Introduction - Curve Fitting 2020-2학기 이화여대 김정태 교수님 강의 내용을 바탕으로 본 글을 작성하였습니다. Overview Curve fitting Probability theory Curve fitting revisited Bayesian curve fitting Curve fitting problem ML에서 중요한 개념들에 대한 통찰력있는 직관을 가져보기 위해 간단한 회귀 문제(Regression)를 생각해보자. We observe a real value input $x$ and wish to use this observation to predict the value of a real valued target value $t$. We have our training data $\mathbf{x} = (x_1, ..., .. 2020. 9. 16.
[베이지안 딥러닝] Introduction 2020-2학기 이화여대 김정태 교수님 강의 내용을 바탕으로 본 글을 작성하였습니다. PRML 교재를 본격적으로 들어가기전에 기존 머신러닝 및 딥러닝에 베이지안 관점이 필요한 이유를 설명하고, 간단한 예제를 통해 관점을 파악해보자. Overview Machine Learning vs Bayesian Machine Learning Coin flipping example Machine Learning 머신러닝 어플리케이션의 대부분은 "data driven"(데이터 기반)으로 인해 성공한 사례로 예를 들면 아래와 같은 것들이 존재한다. 음성인식, 번역 컴퓨터 비전, 객체 탐지 자율 주행 자동 거래 (금융, 전력 등) 크게 ML을 카테고리 별로 분류하면 다음과 같다. Supervised Learning Regr.. 2020. 9. 1.
1.2 Probability Theory 패턴 인식에서 "불확실성(uncertainty)"은 중요한 개념이다. 불확실성의 이유는 측정할 때의 "노이즈" 및 "데이터 집합 수가 제한되어 있다는 한계점" 때문에 발생. 이러한 불확실성을 정량적으로 만들어주는게 "확률론"이다. 확률의 두 가지 기본적인 법칙인 "합의 법칙"과 "곱의 법칙"이 어떻게 도출되는지 Discrete한 예제를 통해 알아보자. Figure 1.10 기준으로 $X$, $Y$라는 확률 변수는 다음과 같다. $X$는 $x_i (i=1, \ldots, M)$ 중 아무 값이나 취할 수 있음 $Y$는 $y_i (i=1, \ldots, L)$ 중 아무 값이나 취할 수 있음 $X$와 $Y$ 각각에서 표본을 추출하는 시도를 $N$번 한다고 하고, 그리고 $X = x_i, Y = y_j$인 시도의.. 2020. 7. 9.