본문 바로가기

전체 글105

05. 최대공약수 구하기 두 자연수 a와 b의 최대공약수를 구하는 알고리즘을 만들어보자. 최대공약수 (Greatest Common Divisor, SCD) : 두 개 이상의 정수의 공통 약수 중에서 가장 큰 값을 의미 ① 두 수의 약수 중에서 ②공통된 것을 찾아 ③그 값 중 최댓값인 것을 찾아야 한다. 최대공약수 알고리즘 GCD 성질을 떠올리며 다음 알고리즘을 생각해 보자. 두 수 중 더 작은 값을 i에 저장 i가 두 수의 공통된 약수인지 확인 공통된 약수이면 이 값을 결과값으로 돌려주고 종료 공통된 약수가 아니면 i를 1만큼 감소시키고 2번으로 돌아가 반복(1은 모든 정수의 약수이므로 i가 1이 되면 1을 결과값으로 돌려주고 종료) 예제 : '4'와 '6'의 GCD를 찾아보자 i에 4를 저장 4는 i로 나누어 떨어지지만, 6을.. 2020. 3. 6.
[문제 1] 1부터 n까지의 합 구하기 과제 : 1부터 n까지 연속한 정수의 합을 구하는 알고리즘을 만들기 1. 알고리즘의 중요 포인트 문제 : '1부터 n까지 연속한 숫자 합' 입력 : 'n까지'에 해당하는 n (n만 입력하면 1부터 n까지 연속한 숫자 합을 한번에 구함) 출력 : '1'부터 입력 'n'까지의 합 2. 구체적이고 명료한 계산 과정 1부터 10까지의 합을 예를 들어보자. 1더하기 2를 계산한 결과인 3을 머릿속에 기억 기억해 둔 3에 다음 숫자 3을 더해 6을 기억 기억해 둔 6에 다음 숫자 4를 더해 10을 기억 기억해 둔 10에 다음 숫자 5를 더해 15를 기억 같은 과정 반복... 기억해 둔 45에 다음 숫자인 10을 더해 55를 기억 10까지 다 더했으므로 마지막에 기억된 55를 제시 3. 1부터 n까지의 합을 구하는 .. 2020. 2. 1.
4.4 Diagonalization 이 글은 Edwith로 부터 제공되는 주재걸 교수님의 "인공지능을 위한 선형대수" 강의를 듣고 요약하였으며, 개인 공부를 위해 부족한 부분을 위해 필요한 개념들을 추가하여 작성하였습니다. 고유값 분해와 밀접한 관련을 가지는 대각화(Diagonalization)의 개념에 대해 배워보겠습니다. 이는 나중에 배울 특이값 분해(SVD: Singular Value Decomposition)와도 밀접한 관련이 있으니 숙지하고 넘어가시길 바랍니다. Diagonalization Example 1.1 어떤 행렬(A)을 대각화하면 위와 같이 분해가능하다. 정리 4 2019. 12. 12.
4.3 Characteristic Equation 이 글은 Edwith로 부터 제공되는 주재걸 교수님의 "인공지능을 위한 선형대수" 강의를 듣고 요약하였으며, 개인 공부를 위해 부족한 부분을 위해 필요한 개념들을 추가하여 작성하였습니다. 4.2절에서 배운 새로운 벡터 공간의 개념을 바탕으로 고유벡터와 고유값을 더 깊이 이해하고 예제를 참고하면서 특성방정식(Characteristic Equation)을 통해 이들을 구하는 법을 알아보겠습니다. Characteristic Equation 앞서 고유값과 고유벡터를 구해봤지만, 특성화 방정식을 사용하여 구하는 Example 1 을 살펴보자. 예제를 풀기 전, 아래 정리를 활용해야하니 참고 하자. [Example 1.1] 고유값 구하기 [Example 1.2] 고유벡터 구하기 고유값을 구하고나면 고유벡터를 구할 .. 2019. 12. 1.
4.2 Null Space and Orthogonal Complement 이 글은 Edwith로 부터 제공되는 주재걸 교수님의 "인공지능을 위한 선형대수" 강의를 듣고 요약하였으며, 개인 공부를 위해 부족한 부분을 위해 필요한 개념들을 추가하여 작성하였습니다. 이번 시간에서는 고유값과 고유벡터의 개념과 이를 구하는 과정을 벡터 공간과 결부시켜 더 깊히 이해하기 위해 새로운 벡터 공간의 개념을 배워보도록 하겠습니다. 이번 절(4.2)에서는 "Null Space(영공간)", "Orthogonal Complement(직교여공간)"의 정의 및 개념을 알아보고, 예제를 직접 풀어면서 이해를 돕고자 합니다. Eigenspace의 정의 The eigenspace consists of the zero vector and all the eigenvectors corresponding to 𝜆.. 2019. 12. 1.
4.1 Eigenvectors and Eigenvalues 이 글은 Edwith로 부터 제공되는 주재걸 교수님의 "인공지능을 위한 선형대수" 강의를 듣고 요약하였으며, 개인 공부를 위해 부족한 부분을 위해 필요한 개념들을 추가하여 작성하였습니다. 고유값 분해는 이미 널리 알려지고 다양한 분야에서 쓰이고 있는 주성분분석(PCA: Principal Component Analysis) 등의 주요 머신러닝 알고리즘에서 중요하게 쓰이는 개념입니다. 이번 절에서는 고유값 분해를 배우기 위한 첫 단계인 고유벡터와 고유값의 개념에 대해 배워보도록 하겠습니다. 이번 절(4.1)에서는 "Eigenvectors(고유벡터)", "Eigenvalues(고유값)"의 정의 및 개념을 알아보고, 예제를 직접 풀어면서 이해를 돕고자 합니다. Eigenvectors and Eigenvalues.. 2019. 12. 1.
5.0 Diagonalization of Symmetric Matrices 특이값 분해(SVD)를 들어가기전에 Symmetric Matrics의 성질을 간단하게 정리하고, Symmetric Matrix에 앞서 고유값 분해에서 배운 Diagonalization 을 다뤄볼 것이다. A Symmetric Matrix 조건 I, II를 만족하는 Matrix를 대칭행렬(Symmetric Matrix)라고 부른다. Diagonalization 4장(고유값 분해)에서 다룬 내용이지만 간단하게 정의를 다시 상기시키면 다음과 같다. 이번 절에서는 Symmetric Matrix를 Diagonalization 하는 Example을 직접 풀어보자. 예제에서 구한 Eigenvector들이 우연하게 관계에 있다. 이것은 우연치 않게 나왔으며 orthogonal decomposition은 잠시 뒤에 살펴.. 2019. 11. 24.
5.1 SVD (Singular Value Decomposition) I 이 글은 Edwith로부터 제공되는 주재걸 교수님의 "인공지능을 위한 선형대수" 강의를 듣고 요약하였으며, 개인 공부를 위해 부족한 부분을 위해 필요한 개념들을 추가하여 작성하였습니다. 마지막 주제인 특이값 분해(SVD: Singular Value Decomposition)을 배우겠습니다. 그리고 이에 더 나아가 특이값 분해를 여러 관점에서 해석해보는 시간을 가져보자. 특이값 분해(Singular Value Decomposition) Singular Value Decomposition (SVD) 2019. 11. 24.
3.4 Gram-Schmidt Orthogonalization & QR Factorization 이 글은 Edwith로 부터 제공되는 주재걸 교수님의 "인공지능을 위한 선형대수" 강의를 듣고 요약하였으며, 개인 공부를 위해 부족한 부분을 위해 필요한 개념들을 추가하여 작성하였습니다. 이번 절(3.4)에서는 "그람-슈미트 직교화(Gram-Schmidt Orthogonalization)", "OrthonormalQR분해(QR Factorization)"의 정의 및 개념을 알아보고, 예제를 직접 풀어면서 이해를 돕고자 한다. 그람-슈미트 직교화(Gram-Schmidt Orthogonalization) QR분해(QR Factorization) 이번에는 임의의 행렬을 직교기저(Orthogonal basis)를 가지는 행렬로 변환하는 그람-슈미트 직교화에 대해 배워보겠습니다. Gram-Schmidt Ortho.. 2019. 11. 24.
3.3 Orthogonal Projection Ⅰ& II 이 글은 Edwith로 부터 제공되는 주재걸 교수님의 "인공지능을 위한 선형대수" 강의를 듣고 요약하였으며, 개인 공부를 위해 부족한 부분을 위해 필요한 개념들을 추가하여 작성하였습니다. Orthogonal Projection 관점에서 Least Squares Problem을 접근해보자. 이를 위해 선형대수에서 중요한 개념인 Orthogonal Projection을 아래의 주요 개념들과 함께 이해해보자. Orthogonality Orthonormality Orthogonal Basis (직교 기저) Orthonormal Basis (정규 직교 기저) Orthogonal Projection 이번 절(3.3)에서는 "Orthogonal", "Orthonormal" , "Orthogonal Basic", "O.. 2019. 11. 23.
3.2 Normal Equation 이 글은 Edwith로 부터 제공되는 주재걸 교수님의 "인공지능을 위한 선형대수" 강의를 듣고 요약하였으며, 개인 공부를 위해 부족한 부분을 위해 필요한 개념들을 추가하여 작성하였습니다. 이번 절(3.2)에서는 "Least Squares Problem" / "Normal Equation" 정의 및 개념을 알아보고, 예제를 직접 풀어면서 이해를 돕고자 한다. 앞 절(3.1) 다룬 내용을 가볍게 살펴보고, Over-Determined System인 경우 해를 어떻게 찾을것인지, 더 나아가 "Normal Equation(정규 방정식)"이 무엇인지 살펴보자. Back to Over-Determined System Life-Span을 예측하기 위해 최적의 가중치(해)를 찾는 것이 목표이다. 우선 위 테이블에서는 .. 2019. 11. 23.
2.8 전사함수와 일대일함수 이 글은 Edwith로 부터 제공되는 주재걸 교수님의 "인공지능을 위한 선형대수" 강의를 듣고 요약하였으며, 개인 공부를 위해 부족한 부분을 위해 필요한 개념들을 추가하여 작성하였습니다. 이번 절(2.8)에서는 "Onto" / "one-to-one" 정의 및 개념을 알아보고, 예제를 직접 풀어면서 이해를 돕고자 한다. ONTO ONE-TO-ONE ONTO and ONE-TO-ONE 왼쪽과 같이 어떤 x vector를 선형변환 후 image들의 셋이 모인 Range 가 Codomain 다르먄, Onto가 아니다. 반대로, 오른쪽과 같이 선형변환 후 Range와 Codomain 이 같으면, Onto라고 할 수 있다. 또한 T(x) = b 를 만족하는 해가 적어도 하나 존재한다고 볼 수 있다. ONTO and.. 2019. 11. 19.