[개념] 정보 엔트로피와 그 친구들
엔트로피는 무질서도라고도 불리며, 불확실한 정도를 나타낸다. 엔트로피는 계가 가질 수 있는 상태의 수에 의존하며 계가 가질 수 있는 상태가 1가지 일 때 0, 즉 확실한 상태가 된다. 오늘은 엔트로피의 친구들 정보량, 엔트로피(Entropy), 결합 엔트로피(Joint Entropy), 조건부 엔트로피(Conditional Entropy), 상호 정보량(Mutual Information), Transfer Entropy들을 간단하게 정리해보려 한다. 모두 샤넌이 정의한 정보량에서 파생하는 개념으로, 얼마나 불확실한지 정량적으로 판단하는 근거를 제시한다. 정보량 N종류의 사건 (예: 맑은날, 비오는날)사건이 발생할 확률 (예: 맑은날 90%, 비오는날 10%) 단위bit (log의 밑이 2일 때)nat (..
2018. 8. 4.
[개념] 확률변수의 기대값, 분산, 공분산, 상관계수
확률변수X의 기대값 확률변수X가 취할 수 있는 값 값 x의 출현확률 확률변수X의 분산 확률변수X가 취할 수 있는 값 확률변수X의 기대값(=E(X)) 값 x의 출현확률 확률변수X, Y의 합의 기대값 확률변수X, Y의 합의 분산 공분산 고찰 x값이 x의 평균보다 클 때, y값이 y의 평균보다 크면 Cov(X, Y)는 양의 값을 가진다. 반대로 x값이 x의 평균보다 클 때, y값이 y의 평균보다 작으면 Cov(X, Y)는 음의 값을 가진다. 각각의 경우 그 정도가 크면 클 수록 Cov(X, Y)의 절대값은 증가한다. x의 값과 y의 값이 전혀 상관 없을 때(독립관계), Cov(X, Y)는 0의 값을 가진다. 확률변수X, Y의 Pearson 상관계수 Pearson 상관계수는 공분산 Cov를 이용하여 -1 ~ 1..
2018. 7. 3.