본문 바로가기

전체 글105

[베이지안 딥러닝] Ch2.3 The Gaussian Distribution 2020-2학기 이화여대 김정태 교수님 강의 내용을 바탕으로 본 글을 작성하였습니다. Overview The Gaussian distribution Conditional Gaussian distributions Marginal Gaussian distributions Bayes’ theorem for Gaussian variables Maximum likelihood for the Gaussian Sequential estimation Bayesian inference for the Gaussian The Gaussian Distribution ▶ Multi-dimensional Gaussian distribution $$N({\bf x}|{\pmb \mu}, {\bf \Sigma}) = \dfrac{1.. 2021. 1. 19.
[베이지안 딥러닝] Ch3.1 Linear models for Regression (MLE) 2020-2학기 이화여대 김정태 교수님 강의 내용을 바탕으로 본 글을 작성하였습니다. Overview Linear regressoin (MLE) Bias-Variance Decomposition Bayeisan linear regression Bayesian model comparison The evidence approximation Limit, of fixed basis functions Linear regression ▶ Regression problem Given a training data set comprising $N$ observations $\bf{x}_n$ together with corresponding target values $\{t_n\}$, we would like to pre.. 2021. 1. 18.
[Corsair LS 100] RGB 조명으로 책상 꾸미기 딥러닝 하려고 컴퓨터를 맞춘지 벌써 2년이 지났다. 이왕 좋은거 사야지 하면서 아마존과 국내 딜들을 살펴보며 시간가는줄 모르고 서치하던때가 엊그제 같았는데, 지금은 RTX30XX 이 출시되었다. 아무튼, 오늘은 기말고사도 끝났으니, 잠깐 11월 블프때 아마존에서 구입한 커세어 LS 100 STRIP을 소개하고자 한다. (시험기간 충동구매) 구매한 목록 Corsair iCUE LS100 LED Smart Lighting Strip Starter Kit : 1 EA Corsair iCUE LS100 LED Smart Lighting Strip Expansion Kit 450mm : 1EA (2개 들어있음) Corsair iCUE LS100 LED Smart Lighting Strip Expansion Kit.. 2020. 12. 23.
Ch9.6~7 Algorithm-independent machine learning - Estimating and comparing classifiers , Combining classifiers 2020-2학기 서강대 김경환 교수님 강의 내용 및 패턴인식 교재를 바탕으로 본 글을 작성하였습니다. 9.6 Estimating and comparing classifiers (분류기 추정 및 비교) ▶ Two reasons for wanting to know the generalization rate of a classifier on a given problem. To see if the classifier performs well enough to be useful. To compare its performance with that of a competing design. 주어진 문제에 대한 분류기의 "generalization rate"을 알고자 하는 데, 적어도 두 가지 이유가 존재한다. 첫째, .. 2020. 12. 11.
Ch9.5 Algorithm-independent machine learning - Resampling for classifier design 2020-2학기 서강대 김경환 교수님 강의 내용 및 패턴인식 교재를 바탕으로 본 글을 작성하였습니다. 9.5 Resampling for classifier design ▶ A number of general resampling methods that have proven effective when used in conjunction with any in a wide range of techniques for training classifiers. 앞 절에서 기존 분류기의 정확도를 포함해서 통계량을 추정할 때의 resampling의 사용을 다루었으나, 분류기들 자체의 설계는 간접적으로만 언급했다. 이제 분류기를 resampling기법과 결합하여 효과가 입증된 방법들을 살펴보자. 추후 Ch9.6에서 논의할 .. 2020. 12. 10.
Ch9.4 Algorithm-independent machine learning - Resampling for estimating statistics 2020-2학기 서강대 김경환 교수님 강의 내용 및 패턴인식 교재를 바탕으로 본 글을 작성하였습니다. 9.4 Resampling for estimating statistics (통계 추정을 위한 재표본화) ▶ For a new pattern recognition problem with unknown distribution, how can we determine the bias and variance? An inspiration for “resampling” methods: Fig. 9.4-9.5 [교재 그림] the ultimate goal: using resampling and related techniques to improve classification. 어떤 학습 알고리즘을 분포를 모르는 경우(e.. 2020. 12. 9.
Ch9.3 Algorithm-independent machine learning - Bias and variance 2020-2학기 서강대 김경환 교수님 강의 내용 및 패턴인식 교재를 바탕으로 본 글을 작성하였습니다. 9.3 Bias and variance ▶ Given that there is no general best classifier unless the probability over the class of problems is restricted, practitioners must be prepared to explore a number of methods or models when solving any given classification problem. 문제들의 클래스에 대한 확률이 제한되지 않는 한 범용의 최선의 분류기는 없다고 주어지면, 우리는 주어진 분류 문제를 풀 때 여러 방법 또는 모델을 탐구할 .. 2020. 12. 9.
[베이지안 딥러닝] Ch4.3 Linear Models for Classification - Probabilistic Discriminative Models 2020-2학기 이화여대 김정태 교수님 강의 내용을 바탕으로 본 글을 작성하였습니다. Overview Linear classification Probabilistic generative model Probabilistic discriminative model The Laplace Approximation Bayesian Logistic Regression Ch4.2에서는 class가 두 개인 분류 문제의 경우에 다양한 종류의 class conditional distribution $p(\mathbf{x}|C_k)$에 대하여 class $C_1$의 $p(C_1|\mathbf{x})$(사후확률)을 $\mathbf{x}$의 선형 함수에 대한 logistic sigmoid 함수로 표현할 수 있었다. Classi.. 2020. 12. 7.
[베이지안 딥러닝] Ch4.2 Linear Models for Classification - Probabilistic Generative Models 2020-2학기 이화여대 김정태 교수님 강의 내용을 바탕으로 본 글을 작성하였습니다. Ch4.1에서는 분류를 위한 discriminant function을 이용한 접근법을 다뤘으며, 이번 Ch4.2에서는 클래스별 conditional distribution인 $p(\mathbf{x}|C_k)$와 클래스의 prior distribution인 $p(C_k)$를 모델하고, 베이지안 정리를 적용하여 $p(C_k|\mathbf{x})$ (posterior probability)를 계산해 내는 방식의 probabilistic generative models을 사용할 것이다. Overview Linear classification Probabilistic generative model Probabilistic dis.. 2020. 12. 3.
Ch9.1~9.2 Algorithm-independent machine learning - Introduction 2020-2학기 서강대 김경환 교수님 강의 내용 및 패턴인식 교재를 바탕으로 본 글을 작성하였습니다. 9.1 Introduction ▶ Questions concerning the foundations and philosophical underpinnings of statistical pattern classification. any reasons to favor one algorithm over another? are there any fundamental results that hold regardless of the cleverness of the designer, the number and distribution of the patterns, and the nature of the classifi.. 2020. 12. 1.
Ch7.5 Stochastic Methods - Evolutionary methods 2020-2학기 서강대 김경환 교수님 강의 내용 및 패턴인식 교재를 바탕으로 본 글을 작성하였습니다. Ch7.4까지는 물리학의 영감을 받은 classifier를 다뤘었다. 이번 Ch7.5에서는 생물학적 진화의 과정에 영감을 받아서, classifier 설계를 하고자 한다. 7.5 Evolutionary methods (적자생존) 분류기 설계의 진화적 방법들은 최적 분류기를 위해 Stochastic Method(탐색)를 사용한다. 이 방법들은 대규모 병렬 컴퓨팅에 적합하다. ▶ Inspired by the biological evolution employing stochastic search for an optimal classifier occasional very large changes in the c.. 2020. 12. 1.
Ch7.3 Stochastic Methods - Boltzmann learning 2020-2학기 서강대 김경환 교수님 강의 내용 및 패턴인식 교재를 바탕으로 본 글을 작성하였습니다. 앞 Ch7.2 에서는 $w$가 fix된 상태에서의 최적의 $E$를 찾기 위한 각 unit의 state를 찾는 방법을 다뤘었다. 이번 Ch7.3에서는 적절한 $w$를 찾기 위한 방법을 논하고자 한다. 7.3 Boltzmann learning 패턴 인식을 위해 [그림 1]에 제시된 네트워크 구조를 사용하고자 한다. 네트워크는 다음과 같다. ▶ The network the input units accept binary feature information (2진값, 0 또는 1) the output units represent the output categories (1-of-c, node(unit)의 갯수 =.. 2020. 11. 25.