2020-05-15 19:37:45

지금까지 정보량, 엔트로피, 결합 엔트로피, 조건부 엔트로피를 설명해왔습니다. 오늘은 상호정보량을 다룰 차례입니다. 

 

두 개의 확률변수 사이의 상호정보량(mutual information)은 하나의 확률변수가 다른 하나의 확률변수에 대해 제공하는 정보의 양을 의미합니다. 이것을 I(X; Y)로 표현합니다. I(X; Y)는 다음과 같이 계산할 수 있습니다. 

 

I(X;Y)=x,yp(x,y)log2p(x,y)p(x)p(y)=x,yp(x,y)log2p(x,y)x,yp(x,y)log2p(x)x,yp(x,y)log2p(y)=H(X,Y)+H(X)+H(Y)=H(X)H(X|Y)=H(Y)H(Y|X)=I(Y;X)

 

이 식의 전개에서 알 수 있듯이 X가 Y에 대해 제공하는 정보량과 Y가 X에 대해 제공하는 정보량은 같습니다. I(X; Y) = I(Y; X)라는 뜻입니다. 따라서 상호 정보량을 두 확률변수가 공유하는 엔트로피라고 해석해도 됩니다. 

 

그리고 만약 두 확률변수가 독립이라면, 즉 p(x, y) = p(x)p(y)이라면, 상호정보량은 0이 됩니다. 위 식의 첫번째 행에 대입해보면 알 수 있죠. 

 

확률변수 X, Y에 대한 결합확률분포표가 다음과 같을 때 상호 정보량을 계산해보도록 하겠습니다. 

 

결합확률분포표

 

저는 I(X; Y) = H(X) + H(Y) - H(X, Y)를 이용해서 계산해보겠습니다. 먼저 H(X)부터 구하면, 다음과 같습니다. 

 

H(X)=12log22+12log22=1

 

그리고 H(Y)는 다음과 같습니다. 

 

H(Y)=34log243+14log24=0.8113

 

또한 H(X, Y)는 다음과 같습니다. 

 

H(X,Y)=14log24+14log24+12log22=1.5

 

따라서, I(X; Y) = I(Y; X) = 1 + 0.8113 - 1.5 = 0.3113 입니다. 

 

마지막으로 좀 더 직관적인 이해를 위해, 엔트로피, 조건부 엔트로피, 결합 엔트로피, 상호 정보량을 벤 다이어그램으로 나타내면 다음과 같은 형태가 됩니다. X의 엔트로피와 Y의 엔트로피의 교집합이 바로 X, Y의 상호 정보량에 해당하는 것이죠. 여기서도 알 수 있는 것이 만약 두 확률변수가 독립이라면 교집합이 존재하지 않으니 상호 정보량이 0이 된다는 것입니다. 

 

출처: [1]

 

나름 이해되는 대로 정리해봤는데, 여전히 쉽진 않네요.^^; 

 

 

<참고자료>

[1] https://arxiv.org/abs/1304.2333, Felix Effenberger, "A primer on information theory, with applications to neuroscience"