본문 바로가기

전체 글105

CH 8. Graph Model 확률적 추론이나 학습 방법들은 아무리 복잡한 것이라 할지라도 결론적으로는 합의 법칙과 곱의 법칙 두 가지를 반복해서 적용한 것과 같다. 그렇기 때문에 아무리 복잡한 확률적 모델이라고 하더라도 순수하게 대수적인 과정을 바탕을 공식화하고 푸는 것이 가능하다. 이러한 분석 과정에서 확률 분포를 도식적으로 표현하는 확률적 그래프 모델(Probabilistic graphical model)이라고 한다. 확률적 그래프 모델(Probabilistic graphical model)을 사용하면 다양한 장점이 존재한다. 모델의 구조를 시각화하는 단순한 방법을 제공하며, 새로운 모델을 설계하는 데 사용할 수도 있다. 그래프에 대한 점검을 통해 조건부 독립 성질과 같은 모델에 대한 통찰을 얻을 수 있음 정교한 모델하에서 학습.. 2020. 7. 7.
Introduction to linear programming 15.1 Brief History of Linear Programming 생략 15.2 Simple Examples of Linear Programs Formally, a linear program is an optimization problem of the form $$\begin{array}{cl} \operatorname{maximize} & \boldsymbol{c}^{\top} \boldsymbol{x} \\ \text { subject to } & \boldsymbol{A} \boldsymbol{x} \leq \boldsymbol{b} \\ & \boldsymbol{x} \geq \mathbf{0} \end{array}$$ where $\boldsymbol{c} \in \mathbb{R}^{n.. 2020. 6. 18.
Lecture 11 : Detection and Segmentation Today Segmentataion Localization Detection 지금까지 CNN을 이용해서 Image를 Classification하는 과정은 아래와 같았다. Other Computer Vision Tasks 이외에 다른 CV로 할수 있는 작업은 크게 4가지로 "Semantic Segmentation", "Classification + Localization", "Object Detection", "Instance Segmenatation"으로 구분된다. Semantic Segmentation "Semantic Segmentation"은 사진에 존재하는 객체(물체)를 의미하는게 아닌, Pixcel에 해당되는 Class를 학습시키고, 구분하는 것이다. 아래 Case를 보면 더 이해하기 쉬울 것이.. 2020. 5. 17.
Lecture 10 : Recurrent Neural Networks Recurrent Neural Networks "Vanilla" Neural Network 지금까지 어떤 모델에 하나의 input을 넣어서 하나의 output이 나오는 것을 살펴봤었다. 이번에는 n개의 input과 n개의 output이 나오는 모델(n : 1 이상)을 살펴보려고 한다. Recurrent Neural Networks : Process Sequences 경우에 따라서 아래와 같이 분류하면 다음과 같다. one to many (e.g. : Image Captioning : image → sequence of words) many to one (e.g. : Sentiment Classification : sequence of words → sentiment) many to many (e.g. :.. 2020. 5. 9.
Lecture 9 : CNN Architectures CNN Architectures Case Studies AlexNet VGG GoogLeNet ResNet Also... NiN (Network in Network) DenseNet Wide ResNet FractalNet ResNeXT SqueezeNet Stochastic Depth Review : LeNet-5 CNN을 처음으로 도입하였으며, 우편 번호와 숫자를 확인하는데 사용하였다고 한다. AlexNet (ILSVR'12 winner) AlexNet은 8개의 Layer로 구성되어 있다. (참고 : Convolution Layer (5개) 및 Fully Connected Layer (3개)) Output size $=\frac{\text { input_size }-\text { filter }+\l.. 2020. 5. 2.
Lecture 8 : Deep Learning Software Pass 2020. 5. 2.
GARMIN EDGE 830 SENSOR BUNDLE 세팅하기 step "가민 엣지 830"과 "문라이트 메테오 스톰 프로 V2"을 연결하려면 [Quarter-turn to Friction Flange Mount Adapter]가 있어야 한다. 따라서 가민 엣지 830을 구매하면서 Flange Mount Adapter 및 "m-01 Mount (spare parts)"를 같이 구매하여 연결하고자 한다. 우선 가민 엣지 830 센서 번들의 구성항목은 아래와 같습니다. GARMIN EDGE 830 SENSOR BUNDLE 주요 구성 항목 GPS 사이클링 컴퓨터 (본체) : 1 EA BLE 속도센서 : 1 EA 케이던스 센서 : 1 EA 심박계 센서 ; 1 EA 위 구성항목 중 스피드 센서, 심박계 센서, 케이던스 센서, 마운트, 심박계 센서 벨트만 사용하고자 한다. 나머지 구성.. 2020. 4. 18.
수학 용어 정리 Proposition (명제) 참과 거짓을 판별할 수 있는 문장. Axiom (공리) 증명이 필요없는 항상 옳다고 인정되는 명제. Theorem (정리) 수학적으로 참인 공리 또는 정의를 기반으로 증명된 명제. Lemma (보조정리) 다른 정리를 증명하는 데 쓸 목적으로 증명된 명제. Corollary (따름정리) 추론이라고도 부른다. 이미 증명된 다른 정리에 의해 바로 유도되는 명제 2020. 4. 16.
Lecture 7 : Training Neural Networks II Part 2 Fancier optimization Regularization Transfer Learning 이번 장에서 다룰 내용은 위와 같으며 최적화를 다루기 전 아래 내용을 확인하고 들어가자. GD (batch gradient descent) : 한 번의 업데이트를 위해 모든 데이터 계산 손실함수는 $J = \sum_{i=1}^{N}{error}$이며, $\sum_{i=1}^{N}$가 모든 데이터를 의미한다. 단점 : 한 번의 업데이트를 위해 모든 데이터가 계산에 포함되므로 속도가 느림 특징 : loss function이 convex한 경우 global mimimum을 보장하고, nonconvex인 경우 local minimum을 보장 SGD (stochastic gradient descent) :.. 2020. 4. 16.
IZALCO RACE 6.9 - FREESTYLE 105 급(첫번째 자전거) 2019년 9월 입문용으로 첫자전거 구매 (적금 안녕~) 구매처 : 고래자전거 (서울시 양천구) 주요 경력 2019 GIVE'N BIKE (AMG SPEEDWAY, 12km) 완주 2019 무주 반딧불 메디오폰도 (81.85km) 완주 남산, 북악산 다수 라이딩 양평 ~ 광명, 마포 완주 (60, 80 km) 제품 이미지 제품 스펙 시승 느낀점 확실히 학창시절 타고 다니던 일반 초급 자전거와 차이가 많이 난다. 속도, 언덕에서의 효과, 페달 굴림의 부드러움 등등 역시 자본주의 짱! 튜닝하고 싶은 부분 (2020) WHEELSET : DT SWISS PR 1400 DICUT 21mm/32mm 휠셋 (link) TIRE : 컨티넨탈 그랑프리 5000 튜브리스 TL 타이어 (link) 자전거 속도계 : Gar.. 2020. 4. 14.
Lecture 6 : Training Neural Networks I "Training Neural Networks I"을 들어가기전 지금까지의 수업 내용을 잠깐 되돌아 보자. Overview (Training Neural Networks) 이번 장에서는 네트워크를 학습시키는 것과 관련한 부분을 다둘 것이다. 처음에 신경망을 어떻게 설정할 것인가? 어떤 Activation Function을 선택해야하는가? Data Preprocess 어덯게 해야할지? weight initiailzation, regularization, gradient checking 관련하여 학습이 동적으로 진행되는 관점에서 얘기해볼것이다. 아래는 신경망 학습에 필요한 초기 설정, 동적 학습, 평가로 3단계로 구분하여 정리한 것이다. Part 1 이번 장에서 다룰 내용은 위와 같으며 하나하나씩 아래 다루.. 2020. 4. 12.
Lecture 5 : Convolutional Neural Networks "CNN"을 들어가기전 지난 수업 내용 Neural Networks을 잠깐 되돌아 보자. Linear Score의 경우:오직 Matrix 연산만 하게 되므로, 아래와 같이 단순한 문제밖에 못 풀게 됨. (즉, 성능이 매우 나쁘다. 정확도 매우 낮음) Linear Score 의 문제점 nonlinear layer(: hidden layer)의 등장 (e.g softmax) Linear Score : W1x → Non-linear Score : W2max(0, W1x) hidden layer(softmax function)를 추가 하면 신경망으로 바꿀 수 있는데, 이는 문제점을 해결하는데 도움이 될 수 있었음을 확인했었다. 이제 Convolutional Neural Networks 를 확인할 차례 잠깐 Co.. 2020. 4. 3.