본문 바로가기
반응형

AI 공부101

[Machine Learning] 불순도 차이 = 정보 이득(Information Gain) 이해하기 데이터 과학과 머신 러닝 분야에서, 의사결정트리(Decision Tree)와 같은 학습 알고리즘의 핵심 요소 중 하나는 '정보 이득(Information Gain)'입니다. 정보 이득은 의사결정트리가 어떤 기준으로 데이터를 분할할지 결정하는 데 사용되는 중요한 지표입니다. 이 지표는 불순도 차이를 기반으로 하여, 데이터를 어떻게 분할할 때 가장 유용한 정보를 얻을 수 있는지를 나타냅니다. 🤔💡 불순도 차이와 정보 이득의 정의와 계산 방법 📊 불순도 차이의 개념 불순도 차이는 특정 분할 전후의 데이터 집합의 불순도(혼잡도)를 비교하는 개념입니다. 의사결정트리에서는 이 불순도 차이를 최대화하는 방향으로 데이터를 분할합니다. 불순도의 측정에는 지니 불순도(Gini Impurity)나 엔트로피(Entropy)와.. 2024. 1. 31.
[Machine Learning] 지니 불순도(Gini Impurity) 이해하기 😊🌳 데이터 과학과 머신 러닝의 세계에서, 의사결정트리(Decision Tree) 알고리즘은 그 효율성과 이해하기 쉬운 구조 때문에 널리 사용됩니다. 이 알고리즘의 핵심 요소 중 하나는 바로 '지니 불순도(Gini Impurity)'입니다. 🤔 지니 불순도는 데이터의 불순도 혹은 혼잡도를 측정하는 지표로, 의사결정트리가 데이터를 어떻게 분할할지 결정하는 데 중요한 역할을 합니다. 🌲✨ 지니 불순도의 정의와 계산 방법 📊 지니 불순도는 주어진 데이터 집합의 불확실성 또는 순도를 수치화한 것입니다. 간단히 말해, 한 데이터 집합에 다양한 클래스(또는 레이블)가 얼마나 섞여 있는지를 나타냅니다. 🧩 지니 불순도(G)의 계산 방법은 다음과 같습니다: 여기서 pi​는 특정 클래스에 속하는 항목의 비율을 나타냅니다. 📈.. 2024. 1. 30.
[Machine Learning] 머신러닝의 핵심, 확률적 경사하강법(SGD)의 모든 것: 이해와 적용 👋 안녕하세요,오늘은 머신러닝 알고리즘의 핵심인 '확률적 경사하강법(Stochastic Gradient Descent, SGD)'에 대해 함께 알아보아요! 🚀 SGD는 데이터 과학자들 사이에서 가장 많이 사용되는 최적화 기법 중 하나인데요, 이 방법이 왜 그렇게 중요한지, 어떻게 작동하는지 함께 살펴보도록 하겠습니다! 🤓 기본개념 1. 온라인 학습(Online Learning) 온라인 학습은 머신러닝에서 데이터가 순차적으로 한 번에 하나씩 모델에 제공되고, 모델이 새로운 데이터를 받을 때마다 지속적으로 학습하는 방법을 말합니다. 이 방식은 데이터가 실시간으로 발생하거나 데이터셋이 매우 크고, 모든 데이터를 한 번에 처리하기 어려울 때 유용합니다. 온라인 학습의 예로는 이메일 스팸 필터링 시스템이 있습니다.. 2024. 1. 29.
[Machine Learning] 머신러닝의 핵심 이해: 비용 함수(Cost Function)와 손실 함수(Loss Function)의 차이점 안녕하세요! 오늘은 머신러닝과 인공지능에서 자주 사용되는 두 가지 중요한 개념인 '비용 함수(Cost Function)'와 '손실 함수(Loss Function)'의 차이점에 대해 알아보겠습니다. 🚀 이 두 개념은 서로 밀접하게 연관되어 있지만, 명확한 차이가 있습니다. 이 글을 통해 그 차이를 명확히 이해해보도록 하겠습니다! 🤓 Loss Function vs. Cost Function 🌟 머신러닝 모델을 학습시키기 위해서는 모델의 성능을 측정하고, 그 성능을 개선하는 방법을 알아야 합니다. 이때 중요한 역할을 하는 것이 바로 비용 함수(Cost Function)와 손실 함수(Loss Function)입니다. 두 함수는 모델의 오차나 성능을 수치화하는데 사용되지만, 그 사용법과 의미에서 차이를 보입니다... 2024. 1. 28.
반응형