본문 바로가기

공부150

[네트워크이론] degree에 따른 attachment rate 구하기 Barabasi-Albert 모델에서 중요한 것은 Preferential attachment와 Network의 성장이다. 이 규칙을 통해 신규 유입되는 node들은 link의 개수가 많은 node와 연결을 맺을 확률이 높고, 이는 다른 node와 비교했을 시 아주 많은 link를 지닌 node, 즉 Hub들을 만들어낸다. 하지만, 특정 네트워크에서 이러한 규칙을 조금 더 엄밀히 살펴보기 위해 실제 node들이 연결을 갖는 비율 Attachment rate를 구하는 방법이 있다. 이 Attachment rate가 실제로 node가 지닌 link 수(degree, 관용적으로 k로 표현)에 비례하는가 확인함으로써 특정 네트워크가 지니고 있는 BA 모델의 성질을 확인할 수 있다. 오늘은 in-degree net.. 2018. 12. 7.
[인공지능] 인공신경망이 갖는 의미 고찰 인공신경망은 인공지능의 한 분야를 이끌며 다방면에서 그 효용성을 증명해가고 있다. 이러한 인공신경망, 좀 더 구체적으로 말하면 다층으로 구성된 복잡한 신경망 네트워크가 지닌 의미는 직관적으로 무어라 할 수 있을까 가장 간단한 상관관계로는 선형 상관관계가 있다. 이러한 상관관계 분석을 위해 우리는 y=ax+b 라는 모델을 만든다. 그리고, 두 값을 가장 잘 설명하는 a와 b의 값을 찾아낸다. 그리고 이러한 가정이 통계적으로 유의할 때 x와 y는 선형 상관관계를 지닌다고 이야기한다. 우리가 만든 선형적인 세상 속에 데이터가 발생한 세상을 담는 과정이다. 하지만, 세상은 좀 더 복잡하다. 선형적인 세상에 담을 수 있는 것은 좀처럼 많지 않다. 인공신경망은 좀 더 복잡한 세상이다. 인공신경망은 다층의 네트워크 .. 2018. 11. 21.
[연구회] '교육 커뮤니케이션 촉진과 객관적 평가를 위한 연구회' 소감 어제는 교육 관련 연구회에 참여했다. 주된 주제는 Active learning, 주체적 학습이었다. 이를 위해서 교육자들이 어떠한 환경을 마련해주어야 할까? 에 대한 질문을 던지는 자리였다. 한 분은 작은 그룹으로 나누어, 주체적으로 학습이 이루어지도록 유도하는 수업을 주장하시는 분이었다. 이 분은 우리학교의 교육 시스템을 바꾼 분인데, 내가 온갖 불만을 토로했던 수업들을 구상하신 원흉이었던 분을 만나게 된 것이다. 아이러니 하게도 그의 목표와 교육을 바라보는 자세는 이상적이고 희망 찼다. 이 분의 강연을 들으니 이제는 욕하기 힘들어 질 것 같다. 이 분의 수업 방식에 불만을 가졌던 이유는 하면 좋은 수업이지만 굳이 왜 해야 하는지가 불분명했기 때문이었다. 예를 들자면 학회를 운영해 본다던가, 인류애라는.. 2018. 11. 2.
[확률과정] 푸아송 과정 실전편 - 발생 시간 간격의 관점에서 이전 푸아송 과정을 설명하는 글에 이은 실전편. 푸아송 과정을 사건 발생 시간 간격의 관점에서 분석해보자. 시간 간격의 관점에서 분석하는 이유 이전 푸아송 과정 글에서 최종적으로 유도한 식은 다음과 같다 한 step(t=1)에서 λ의 기대 값을 가지는 사건이 발생할 경우, 시간 간격 t 내에 k번의 사건이 발생할 확률을 나타내는 식이다. 이처럼 사건의 발생 원인을 확실히 알고 있는 경우, 즉, 사건이 step별로 독립적이며 λ라는 기대값을 가진다는 것을 알고 있는 경우라면, 위의 식이 기대값을 도출하는데 도움이 될 수 있다. 허나, 아무것도 모르는 상태에서 이 사건이 푸아송 과정인지 살펴보기 위해서는 위의 식으로는 불편한 점이 있다. 그래서 사건이 발생한 시간 간격의 관점에서 분석하는 것이 편리하다. 이.. 2018. 10. 10.
[소개] DeepMimic - 사람처럼 움직이도록 학습하기 최근, 연구실 친구와 같이 공부를 하고 있는데, 이 연구회는 강화학습, 그 중에서도 사람의 움직임을 학습하기 위함에 초점을 두고 있다. 이 친구의 목표는 간단한 추가 정보를 이용해서 사람의 움직임의 특징을 포착하는 network의 학습인데, 참고가 되는 논문들이 많다. 가장 최근에 간단한 방법을 통해 사람과 비슷한 행동을 뉴럴네트워크에 학습시킨 알고리즘이 있다. 그 이름은 DeepMimic. 홈페이지에 그 결과와 방법에 대해 자세히 적혀있다. 이를 토대로 간단히 요약해 본다. 주소: https://bair.berkeley.edu/blog/2018/04/10/virtual-stuntman/ 사람의 움직임을 익히도록 뉴럴 네트워크를 학습하는 방법은 예전부터 많이 있었다. 이 방법은 몸의 중심의 위치, 앞으로.. 2018. 10. 1.
[행복] 사람을 움직이는 힘 심리학자 미하이 칙센트미하이는 그의 Flow이론에서 사람의 심리 상태를 도전 정도와 이를 해낼 수 있는 기량으로 나누어 분류했다. (Flow이론 소개는 여기) 나는 이 이론의 가장 놀라운 점은 사람의 행위를 근본적인 2가지 요소로 나누어 생각했다는 점에 있다고 생각한다. 바로 "목적"과 "방법"이다. 쉽게 말하면 다음의 두 가지 질문으로 대체할 수 있다.무엇을 할 것인가?방법을 알고 있는가? 이 두 가지 질문이 분명한 상태에서 우리는 뚜렷한 행위를 만들어낼 수 있다. 최근 주목 받는 행복한 상태와 관계있는 의도적 행위(sonja lyubomirsky), 몰입 상태(mihaly csikszentmihalyi)는 이러한 상태와 큰 관련이 있다. 근래 유행하는 말에는 '소확행' 이라는 말이 있다. 작지만 확실.. 2018. 9. 10.
[행복] 신체활동과 우울한 기분의 관계, 왜 신체활동인가? 신체 활동과 우울증상은 음의 상관관계를 지닌다? 자가보고형 우울척도 평가 CES-D에서 묻는 질문에는 신체 증상과 관련된 항목들이 있다. "I was bothered by things that usually don’t bother me" - 평소에는 별일 아니었던 일들이 귀찮다 "I did not feel like eating; my appetite was poor" - 식욕이 떨어진다 "I had trouble keeping my mind on what I was doing" - 집중이 안된다 "I felt that everything I did was an effort" - 무얼 하는 것도 귀찮다 "I talked less than usual" - 평소보다 말수가 줄었다 "I could not get.. 2018. 8. 21.
[예제] 시계열 Data로부터 Mutual Information 구하기 지난번 글에 정보 엔트로피를 공부에 이어, Mutual Information을 구하는 예제를 작성해보고자 한다. Mutual Information은 두 확률 변수의 관계를 통해 압축될 수 있는 정보량이다. 간단히 복습해보자. 확률변수 X, Y가 있을 때 Mutual Information I(X;Y)는 다음과 같다. Joint Entropy H(X,Y)는 X, Y가 독립일 때 H(X)+H(Y)의 값을 가진다. 고로, Mutual Information은 X, Y가 독립일 때보다 감소한 불확실성을 나타낸다. Mutual Information은 확률변수 X와 Y를 엮을 수 있는 모든 상황에서 사용이 가능하다. 그 중 대표적인 것은 시계열 Data이다. 시계열 문제는 "시각 t 에 측정된 측정값 x, y 값의 관.. 2018. 8. 18.
[네트워크이론] Louvain algorithm - Python으로 구현하기 Louvain algorithm은 사용하기 엄청 쉽다. python 버전으로 package를 만들어 놓은 사람이 있기 때문이다. package는 networkx와 연동되며, 소스코드 한줄만에 community 추출이 완료된다. https://github.com/taynaud/python-louvain 여기 url로 가서 다운로드 & package 설치를 한다. 먼저, sample을 만들기 위해 다음과 같이 networkx로 community3개로 구성된 인공 network를 만든다. import networkx as nx import matplotlib.pyplot as plt import numpy as np import copy from networkx.algorithms import communit.. 2018. 8. 10.