본문 바로가기
반응형

AI 공부/Math 데이터사이언스 수학10

[데이터사이언스 수학] Matrix Factorization(행렬 분해): 행렬을 분해하는 방법 🧩 SVD로 이미지 압축 Matrix Factorization: 행렬을 분해하는 방법 🧩 Matrix Factorization(행렬 분해), 또는 Matrix Decomposition(행렬 분해)는 주어진 행렬을 여러 구성 요소로 분해하는 기술입니다. 마치 숫자 10을 2와 5로 분해하는 것과 비슷한 개념이에요. 행렬 분해는 선형 방정식을 풀거나, 다양한 계산을 효율적으로 처리하는 데 사용됩니다. 🔍 여러 가지 행렬 분해 방법이 있으며, 각 방법은 특정 목적에 맞게 사용됩니다. 가장 일반적인 행렬 분해 기법은 LU 분해, QR 분해, Cholesky 분해, 그리고 특이값 분해(SVD, Singular Value Decomposition) 등이 있습니다. 주요 행렬 분해 기법 📊LU DecompositionLU 분해는 정사각.. 2025. 1. 4.
[데이터사이언스 수학] NORM 함수: 벡터의 크기를 측정하는 방법! 📏 NORM 함수: 벡터의 크기를 측정하는 방법! 📏벡터의 크기를 측정하는 것이 때때로 필요할 때가 있죠? 벡터의 크기를 정확히 측정할 수 있도록 도와주는 함수가 바로 Norm 함수입니다. 😄 벡터의 크기를 측정하는 것만큼 중요한 일이 또 있을까요? 벡터를 다양한 방식으로 분석하고 다룰 때, Norm 함수는 없어서는 안 될 중요한 도구입니다. Norm 함수란 무엇일까요? 🤔Norm 함수는 벡터 공간에서 벡터의 크기나 길이를 측정할 수 있게 해주는 함수입니다. 쉽게 말해, 벡터가 얼마나 큰지, 길이가 얼마나 되는지를 알려주는 역할을 하죠. 중요한 점은 0 벡터를 제외한 모든 벡터는 일정한 양의 크기를 갖는다는 것입니다.이 함수는 여러 종류가 있으며, 그 중 가장 많이 사용되는 것은 L^p Norm입니다... 2025. 1. 4.
[데이터사이언스 수학] Eigenvalues와 Eigenvectors: 데이터사이언스에서 꼭 알아야 할 핵심 개념! 📊 Eigenvalues와 Eigenvectors, 도대체 왜 중요할까? 🤔Eigenvalues와 Eigenvectors는 선형대수학에서 굉장히 중요한 개념이에요. 하지만 왜 이 개념이 데이터사이언스에서 중요한지 궁금할 수 있죠? 😅 먼저, 간단히 말하면 Eigenvalue는 행렬이 벡터를 변형할 때 그 벡터의 크기만 변화시키는 "스케일" 요소이고, Eigenvector는 그 변형을 당하는 벡터에요. 다시 말해서, Eigenvector는 변형 후에도 방향은 그대로 유지하면서 크기만 커지거나 줄어들죠! 📏Eigenvector는 어떻게 정의될까? 🤓선형 변환을 할 때, Eigenvector는 특정 방향을 유지하면서 크기만 변경되는 벡터입니다. 예를 들어, 어떤 행렬이 특정 벡터를 변화시킬 때, 그 벡터는.. 2025. 1. 4.
[데이터사이언스 수학] 📚 Determinant(행렬식): 행렬의 비밀을 푸는 열쇠! 🔑✨ 안녕하세요! 오늘은 데이터 사이언스와 선형 대수에서 중요한 개념인 Determinant(행렬식)에 대해 알아보겠습니다. 😄Determinant는 행렬의 특성을 나타내는 스칼라 값으로, 다양한 수학적, 물리적 의미를 담고 있습니다. 🧮  1. Determinant란? 🤔Determinant는 행렬이 공간에 미치는 길이(1차원), 면적(2차원), 부피(3차원)의 변화를 나타내는 값입니다.📌 주요 특징Determinant 값 > 0: 면적이나 부피가 양수 방향으로 변형됩니다.Determinant 값 : 면적이나 부피가 음수 방향(반전)으로 변형됩니다.Determinant 값 = 0: 행렬이 역행렬을 가지지 않으며, 공간을 "압축"하여 차원이 줄어듭니다.예시:Determinant가 2라면, 면적(2D) .. 2025. 1. 3.
반응형