"최적화로 얻어진 거듭제곱 분포"의 두 판 사이의 차이
둘러보기로 가기
검색하러 가기
(사용자 이름 삭제됨) |
(사용자 이름 삭제됨) |
||
1번째 줄: | 1번째 줄: | ||
[http://www.eecs.harvard.edu/~michaelm/ 마이클 미첸마허] 교수의 2004년 논문을 읽었습니다. <인터넷 수학>이라는 저널에 실린 이 논문의 제목을 한글로 옮기면 "거듭제곱 분포와 로그정규분포를 만드는 모형에 관한 간단한 역사"입니다. ([http://www.eecs.harvard.edu/~michaelm/postscripts/im2004a.pdf pdf 내려받기]) 제 블로그에서도 종종 얘기했듯이 거듭제곱 분포를 만들어내는 다양한 모형, 즉 다양한 메커니즘이 있지요. 뉴만의 논문에서 본 [http://exactitude.tistory.com/675 율 과정(Yule process)]이 대표적인데 두 마디로 '빈익빈 부익부'라고 할 수 있습니다. | [http://www.eecs.harvard.edu/~michaelm/ 마이클 미첸마허] 교수의 2004년 논문을 읽었습니다. <인터넷 수학>이라는 저널에 실린 이 논문의 제목을 한글로 옮기면 "거듭제곱 분포와 로그정규분포를 만드는 모형에 관한 간단한 역사"입니다. ([http://www.eecs.harvard.edu/~michaelm/postscripts/im2004a.pdf pdf 내려받기]) 제 블로그에서도 종종 얘기했듯이 거듭제곱 분포를 만들어내는 다양한 모형, 즉 다양한 메커니즘이 있지요. 뉴만의 논문에서 본 [http://exactitude.tistory.com/675 율 과정(Yule process)]이 대표적인데 두 마디로 '빈익빈 부익부'라고 할 수 있습니다. | ||
− | 오늘 이 글에서는 최적화의 결과로서 얻어딘 거듭제곱 분포를 소개합니다. 원래 만델브로트가 제시한 거라고 하네요. n개의 낱말로 이루어진 언어를 생각합시다. j번째 낱말을 이용하는데 드는 비용을 C<sub>j</sub>라고 합시다. 어떤 낱말을 한 번 이용할 때마다 전달되는 정보량을 최대화한다고 해봅시다. | + | 오늘 이 글에서는 최적화의 결과로서 얻어딘 거듭제곱 분포를 소개합니다. 원래 만델브로트가 제시한 거라고 하네요. n개의 낱말로 이루어진 언어를 생각합시다. j번째 낱말을 이용하는데 드는 비용을 C<sub>j</sub>라고 합시다. 어떤 낱말을 한 번 이용할 때마다 전달되는 정보량을 최대화한다고 해봅시다. 여기서 정보량은 엔트로피로 정의됩니다. j번째 낱말이 쓰일 확률을 p<sub>j</sub>라고 하면, 낱말 당 평균 정보량과 비용은 다음처럼 주어집니다. |
<math>H=-\sum p_j \log p_j,\ C=\sum p_jC_j</math> | <math>H=-\sum p_j \log p_j,\ C=\sum p_jC_j</math> | ||
+ | |||
+ | H/C를 최대화하는 건 C/H를 최소화하는 것과 같습니다. | ||
+ | |||
+ | <math>\frac{d(C/H)}{dp_j}=\frac{C_jH+C\log(ep_j)}{H^2}=0</math> | ||
+ | |||
+ | 로부터, | ||
+ | |||
+ | <math>p_j=e^{-HC_j/C-1}</math> |
2011년 1월 30일 (일) 22:44 판
마이클 미첸마허 교수의 2004년 논문을 읽었습니다. <인터넷 수학>이라는 저널에 실린 이 논문의 제목을 한글로 옮기면 "거듭제곱 분포와 로그정규분포를 만드는 모형에 관한 간단한 역사"입니다. (pdf 내려받기) 제 블로그에서도 종종 얘기했듯이 거듭제곱 분포를 만들어내는 다양한 모형, 즉 다양한 메커니즘이 있지요. 뉴만의 논문에서 본 율 과정(Yule process)이 대표적인데 두 마디로 '빈익빈 부익부'라고 할 수 있습니다.
오늘 이 글에서는 최적화의 결과로서 얻어딘 거듭제곱 분포를 소개합니다. 원래 만델브로트가 제시한 거라고 하네요. n개의 낱말로 이루어진 언어를 생각합시다. j번째 낱말을 이용하는데 드는 비용을 Cj라고 합시다. 어떤 낱말을 한 번 이용할 때마다 전달되는 정보량을 최대화한다고 해봅시다. 여기서 정보량은 엔트로피로 정의됩니다. j번째 낱말이 쓰일 확률을 pj라고 하면, 낱말 당 평균 정보량과 비용은 다음처럼 주어집니다.
\(H=-\sum p_j \log p_j,\ C=\sum p_jC_j\)
H/C를 최대화하는 건 C/H를 최소화하는 것과 같습니다.
\(\frac{d(C/H)}{dp_j}=\frac{C_jH+C\log(ep_j)}{H^2}=0\)
로부터,
\(p_j=e^{-HC_j/C-1}\)