본문 바로가기
공부/Human dynamics

[논문소개] Predictability of Conversation Partners

by 죠옹 2018. 2. 6.

 오늘 소개할 논문은 "Predictability of Conversation Partners, 대화 상대의 예측 가능성" 이다. 회사 직원들에게 웨어러블 센서를 제공하고, 그로부터 취득한 대화 정보를 이용해서 현재 대화 상대가 다음 대화 상대에 얼마나 많은 영향을 주는지 조사한 논문이다.

 저자는 Taro Takaguchi, Mitsuhiro Nakamura, Nobuo Sato, Kazuo Yano, Naoki Masuda이다. Naoki Masuda 선생님은 "복잡 네트워크의 과학"이라는 일본에서는 복잡 네트워크의 입문서로 유명한 책의 저자이다. 그래서 그런지 논문에서도 다양한 방식의 분석이 이뤄져 있는데, 그 의미와 통찰력에 대해 배울 수 있는 논문이었다.


 이 논문에서는 대화 상대의 예측 가능성을 평가하기 위해 정보 이론의 Entropy 개념을 이용하였다. 

 소셜 네트워크 중 한 node, 즉 한 사람 i에 대해 4가지의 Entropy를 정의했다.


Random Entropy

 

무작위적으로 대화할 경우의 엔트로피


Uncorrelated Entropy

 

i가 j와 대화할 확률의 정보 엔트로피


Conditional Entropy

 

 i가  j와 대화한 후 l과 대화할 정보 엔트로피


Mutual Information

 

 i가 j와 l과 말할 경우, 대화상대 j와 대화상대 l 사이에 공유하는 정보량

Mutual Information이 크면 i의 대화 상대 j가 주어졌을 때 다음 대화상대 l을 예측할 가능성이 증가함을 나타내고, 작다면 대화상대 j와 그 다음 대화상대 l은 독립적인 관계를 가짐을 나타낸다.


k_i 는 node가 지니는 연결의 개수, P_i(j) 는 i가 j와 대화할 확률, P_i(l | j)는 j와 대화한 후 l과 대화할 확률을 나타낸다. 


그 결과가 위의 그림과 같다. 정보이론에서 Entropy의 양은 불확실성 정도를 나타낸다. Entropy가 높을 수록 불확실하며, 낮을 수록 예측하기 쉬운 Rule이 형성되어있음을 알 수 있다. Fig4의 (a)에서 Uncorrelated Entropy(H1)는 Random Entropy(H0)보다 작은 값을 가지는데, 이는 대화 상대가 무작위적이지 않으며, 어느 정도 대화 상대에 대해 선호성이 존재함을 나타낸다. 또한 Conditional Entropy(H2)는 Uncorrelated Entropy(H1)보다 작은 값을 가지는데, 이는 현재 대화 상대가 주어짐으로써 다음 대화 상대가 누구가 될지 예측할 가능성이 증가하였음을 나타낸다.

 이를 정량적으로 표시한 것이 Mutual Entropy인데 이는 (b)에서 설명할 수 있다. (b)에서는 Uncorrelated  Entropy(H1)와 Conditional Entropy(H2)를 비교하는데, 직선은 Mutual Information(I = H1- H2)이 0일 때를 나타낸다. Mutual Information이 0일 때 대화상대 간에 어떠한 영향도 없음을 나타낸다. 즉, 내가 A란 사람과 대화를 하던 B란 사람과 대화를 하던 전혀 상관이 없다는 것을 나타낸다. (b)의 결과를 보면, Mutual Information이 0인 사람은 없지만, 그 크기는 개개인에 따라 다르게 나타난다.



 그걸 분석한 것이 위 그림이다. k는 네트워크 내의 어떤 사람이 가지는 대화 상대의 수, s는 총 대화 시간, w는 한 사람 당 평균 대화 시간이다. R값은 피어슨 상관계수인데, Mutual Information은 대화 상대의 수보다 총 대화 시간, 총 대화 시간 보다는 평균 대화 시간이 더 높은 음의 상관이 있음을 알 수 있다. 풀어 해석하자면, 짧게 짧게 얘기 하는 사람은 더 규칙적으로 대화 상대를 선택하고, 길게 길게 얘기 하는 사람은 더 무작위적으로 대화 상대를 선택함을 나타낸다. 


 결과적으로 이 논문에서는 현재 어떤 사람과 대화하는지 정보가 주어짐으로써 다음 대화 상대에 대해 예측 가능성이 증가하였음을 정보 엔트로피의 감소를 통해 확인하였고(30%의 정보 엔트로피 감소), 이러한 예측 가능성은 그 사람의 평균 대화 시간이 길수록 낮아지고, 짧을수록 높아진다는 것을 확인하였다. 

 이 외에도 대화로 이루어진 Network는 "Strength of weak ties" 구조를 지니고 있고, 여러 커뮤니티에서 약한 연결을 지닌 사람은 다음 대화 상대가 누구일지에 대해 높은 예측성을, 한 커뮤니티에서 강한 연결을 지닌 사람은 다음 대화 상대가 누구일지에 대해  낮은 예측성을 지님을 확인하였다. 


반응형

댓글