본문 바로가기

Linear Algebra (선형대수학)18

2.2 Solution Sets of Linear Systems Homogeneous Linear Systems. Example1. Determin whether there is a nontrivial solution. 위 3개의 선형방정식을 만족하는 해를 굉장히 간단하고 멋있는 꼴인 Span {v} (3차원 공간에서의 Line)으로 로 표현할 수 있다. Example2. Determin whether there is a nontrivial solution. 위 1개의 선형방정식을 만족하는 해를 Span {u. v} (3차원 공간에서의 Plane)으로 로 표현할 수 있다. Generalization of the solution of Homogeneous Linear Systems. Span{0}인 nontrivial solution도 역시 Homogeneous를 만족.. 2020. 3. 25.
1.3 Vector Equations (벡터 방정식) 2차원에서 Vector를 표현하는 방법을 살펴보자. 서로 다른 벡터(u vector, v vector)의 합(좌) 그리고, 어느 한 벡터의 scalar 곱은 아래와 같이 연산되며, 기하학적 의미도 확인해보자. 2차원 뿐만아니라 3차원 ~ n차원까지 vector는 곻간 존재할 수 있다. n차원에서의 Algebraic properties는 다음과 같다. (증명은 element들을 활용하여 일반화 시키면 된다.) linear combinations를 살펴보자. 예제를 풀어보자. 위 예제로 agumented matrix의 해가 존재하는가? (당연히 consistent!) Span에 대해 알아보자. 2020. 3. 20.
4.4 Diagonalization 이 글은 Edwith로 부터 제공되는 주재걸 교수님의 "인공지능을 위한 선형대수" 강의를 듣고 요약하였으며, 개인 공부를 위해 부족한 부분을 위해 필요한 개념들을 추가하여 작성하였습니다. 고유값 분해와 밀접한 관련을 가지는 대각화(Diagonalization)의 개념에 대해 배워보겠습니다. 이는 나중에 배울 특이값 분해(SVD: Singular Value Decomposition)와도 밀접한 관련이 있으니 숙지하고 넘어가시길 바랍니다. Diagonalization Example 1.1 어떤 행렬(A)을 대각화하면 위와 같이 분해가능하다. 정리 4 2019. 12. 12.
4.3 Characteristic Equation 이 글은 Edwith로 부터 제공되는 주재걸 교수님의 "인공지능을 위한 선형대수" 강의를 듣고 요약하였으며, 개인 공부를 위해 부족한 부분을 위해 필요한 개념들을 추가하여 작성하였습니다. 4.2절에서 배운 새로운 벡터 공간의 개념을 바탕으로 고유벡터와 고유값을 더 깊이 이해하고 예제를 참고하면서 특성방정식(Characteristic Equation)을 통해 이들을 구하는 법을 알아보겠습니다. Characteristic Equation 앞서 고유값과 고유벡터를 구해봤지만, 특성화 방정식을 사용하여 구하는 Example 1 을 살펴보자. 예제를 풀기 전, 아래 정리를 활용해야하니 참고 하자. [Example 1.1] 고유값 구하기 [Example 1.2] 고유벡터 구하기 고유값을 구하고나면 고유벡터를 구할 .. 2019. 12. 1.
4.2 Null Space and Orthogonal Complement 이 글은 Edwith로 부터 제공되는 주재걸 교수님의 "인공지능을 위한 선형대수" 강의를 듣고 요약하였으며, 개인 공부를 위해 부족한 부분을 위해 필요한 개념들을 추가하여 작성하였습니다. 이번 시간에서는 고유값과 고유벡터의 개념과 이를 구하는 과정을 벡터 공간과 결부시켜 더 깊히 이해하기 위해 새로운 벡터 공간의 개념을 배워보도록 하겠습니다. 이번 절(4.2)에서는 "Null Space(영공간)", "Orthogonal Complement(직교여공간)"의 정의 및 개념을 알아보고, 예제를 직접 풀어면서 이해를 돕고자 합니다. Eigenspace의 정의 The eigenspace consists of the zero vector and all the eigenvectors corresponding to 𝜆.. 2019. 12. 1.
4.1 Eigenvectors and Eigenvalues 이 글은 Edwith로 부터 제공되는 주재걸 교수님의 "인공지능을 위한 선형대수" 강의를 듣고 요약하였으며, 개인 공부를 위해 부족한 부분을 위해 필요한 개념들을 추가하여 작성하였습니다. 고유값 분해는 이미 널리 알려지고 다양한 분야에서 쓰이고 있는 주성분분석(PCA: Principal Component Analysis) 등의 주요 머신러닝 알고리즘에서 중요하게 쓰이는 개념입니다. 이번 절에서는 고유값 분해를 배우기 위한 첫 단계인 고유벡터와 고유값의 개념에 대해 배워보도록 하겠습니다. 이번 절(4.1)에서는 "Eigenvectors(고유벡터)", "Eigenvalues(고유값)"의 정의 및 개념을 알아보고, 예제를 직접 풀어면서 이해를 돕고자 합니다. Eigenvectors and Eigenvalues.. 2019. 12. 1.
5.0 Diagonalization of Symmetric Matrices 특이값 분해(SVD)를 들어가기전에 Symmetric Matrics의 성질을 간단하게 정리하고, Symmetric Matrix에 앞서 고유값 분해에서 배운 Diagonalization 을 다뤄볼 것이다. A Symmetric Matrix 조건 I, II를 만족하는 Matrix를 대칭행렬(Symmetric Matrix)라고 부른다. Diagonalization 4장(고유값 분해)에서 다룬 내용이지만 간단하게 정의를 다시 상기시키면 다음과 같다. 이번 절에서는 Symmetric Matrix를 Diagonalization 하는 Example을 직접 풀어보자. 예제에서 구한 Eigenvector들이 우연하게 관계에 있다. 이것은 우연치 않게 나왔으며 orthogonal decomposition은 잠시 뒤에 살펴.. 2019. 11. 24.
5.1 SVD (Singular Value Decomposition) I 이 글은 Edwith로부터 제공되는 주재걸 교수님의 "인공지능을 위한 선형대수" 강의를 듣고 요약하였으며, 개인 공부를 위해 부족한 부분을 위해 필요한 개념들을 추가하여 작성하였습니다. 마지막 주제인 특이값 분해(SVD: Singular Value Decomposition)을 배우겠습니다. 그리고 이에 더 나아가 특이값 분해를 여러 관점에서 해석해보는 시간을 가져보자. 특이값 분해(Singular Value Decomposition) Singular Value Decomposition (SVD) 2019. 11. 24.
3.4 Gram-Schmidt Orthogonalization & QR Factorization 이 글은 Edwith로 부터 제공되는 주재걸 교수님의 "인공지능을 위한 선형대수" 강의를 듣고 요약하였으며, 개인 공부를 위해 부족한 부분을 위해 필요한 개념들을 추가하여 작성하였습니다. 이번 절(3.4)에서는 "그람-슈미트 직교화(Gram-Schmidt Orthogonalization)", "OrthonormalQR분해(QR Factorization)"의 정의 및 개념을 알아보고, 예제를 직접 풀어면서 이해를 돕고자 한다. 그람-슈미트 직교화(Gram-Schmidt Orthogonalization) QR분해(QR Factorization) 이번에는 임의의 행렬을 직교기저(Orthogonal basis)를 가지는 행렬로 변환하는 그람-슈미트 직교화에 대해 배워보겠습니다. Gram-Schmidt Ortho.. 2019. 11. 24.
3.3 Orthogonal Projection Ⅰ& II 이 글은 Edwith로 부터 제공되는 주재걸 교수님의 "인공지능을 위한 선형대수" 강의를 듣고 요약하였으며, 개인 공부를 위해 부족한 부분을 위해 필요한 개념들을 추가하여 작성하였습니다. Orthogonal Projection 관점에서 Least Squares Problem을 접근해보자. 이를 위해 선형대수에서 중요한 개념인 Orthogonal Projection을 아래의 주요 개념들과 함께 이해해보자. Orthogonality Orthonormality Orthogonal Basis (직교 기저) Orthonormal Basis (정규 직교 기저) Orthogonal Projection 이번 절(3.3)에서는 "Orthogonal", "Orthonormal" , "Orthogonal Basic", "O.. 2019. 11. 23.
3.2 Normal Equation 이 글은 Edwith로 부터 제공되는 주재걸 교수님의 "인공지능을 위한 선형대수" 강의를 듣고 요약하였으며, 개인 공부를 위해 부족한 부분을 위해 필요한 개념들을 추가하여 작성하였습니다. 이번 절(3.2)에서는 "Least Squares Problem" / "Normal Equation" 정의 및 개념을 알아보고, 예제를 직접 풀어면서 이해를 돕고자 한다. 앞 절(3.1) 다룬 내용을 가볍게 살펴보고, Over-Determined System인 경우 해를 어떻게 찾을것인지, 더 나아가 "Normal Equation(정규 방정식)"이 무엇인지 살펴보자. Back to Over-Determined System Life-Span을 예측하기 위해 최적의 가중치(해)를 찾는 것이 목표이다. 우선 위 테이블에서는 .. 2019. 11. 23.
2.8 전사함수와 일대일함수 이 글은 Edwith로 부터 제공되는 주재걸 교수님의 "인공지능을 위한 선형대수" 강의를 듣고 요약하였으며, 개인 공부를 위해 부족한 부분을 위해 필요한 개념들을 추가하여 작성하였습니다. 이번 절(2.8)에서는 "Onto" / "one-to-one" 정의 및 개념을 알아보고, 예제를 직접 풀어면서 이해를 돕고자 한다. ONTO ONE-TO-ONE ONTO and ONE-TO-ONE 왼쪽과 같이 어떤 x vector를 선형변환 후 image들의 셋이 모인 Range 가 Codomain 다르먄, Onto가 아니다. 반대로, 오른쪽과 같이 선형변환 후 Range와 Codomain 이 같으면, Onto라고 할 수 있다. 또한 T(x) = b 를 만족하는 해가 적어도 하나 존재한다고 볼 수 있다. ONTO and.. 2019. 11. 19.