보존되지 않으면 임계성은 없다
앞의 '보존되지 않는 자기조직화 임계성 모형'이라는 글에서 제시했듯이, 에너지 보존이 임계성의 필수 요소인가라는 질문에 대한 얘기를 하는 중입니다. 2년 전 세미나에서 이 주제로 발표했을 때 한 번에 너무 많은 내용을 다루려고 욕심을 냈던 것 같습니다. 그래서 산수만 정리해놓고 그게 무슨 의미인지 제대로 이해하지 못하여 마침 그런 질문이 있었는데 대답할 수 없었습니다. 오늘은 그 부분을 다시 봤습니다.
1997년 브뢰커(H.-M. Broker)와 그라스베르거(P. Grassberger)가 <피지컬 리뷰 E(PRE)>에 낸 논문에서는 에너지 보존이 임계성의 필수 요소임을 보여줍니다. 이들은 OFC 지진 모형(Olami-Feder-Christensen earthquake model)의 랜덤 이웃 모형을 이용합니다.
N개의 자리 각각에는 0 이상 1 미만의 에너지가 랜덤하게 주어지고, 모든 자리의 에너지가 아주 조금씩 연속적으로 커집니다(에너지 주입; injection/loading). 그러다 어떤 자리의 에너지가 1 이상이 되면 무너지기(toppling)가 일어납니다. 이 때 이웃 n개를 랜덤하게 골라서 각 이웃에 무너진 자리의 에너지에 α를 곱한만큼의 에너지를 전달합니다. α는 1/n보다 작은 값으로 주어지며 무너진 자리의 에너지는 0이 됩니다. 에너지를 전달받은 자리 중 에너지가 1 이상이 되면 무너집니다... 그러다 모든 에너지가 1 미만이 되면 다시 모든 자리의 에너지를 아주 조금씩 연속적으로 키웁니다.
α가 1/n보다 작기 때문에 생기는 무너진 자리에서의 에너지 감소량과 사태 사이에 모든 자리에 주입되는 에너지 증가량이 같아야 총에너지는 일정한 수준으로 유지될 겁니다.
\((1-n\alpha)\overline{z_{act}}\langle s\rangle = N(1-\overline{z_{max}})\)
우변의 zmax는 사태가 끝나고 난 후 각 자리의 에너지 중 가장 큰 값을 뜻합니다. 결국 그 놈의 에너지가 1이 될 때까지 모든 자리의 에너지를 연속적으로 증가/주입시킬테니까요.
다음으로 무너지기 비율(toppling rate) σ를 정의하는데요, 이건 각 자리가 단위 시간 동안 평균적으로 몇 번 무너지기를 하는가를 뜻합니다. 에너지 주입 속도가 1이라고 하면 1 - zmax만큼의 '시간' 동안 사태의 크기를 전체 자리의 개수로 나눠준 값입니다.
\(\sigma=\frac{\langle s\rangle}{N(1-\overline{z_{max}})}=\frac{1}{ (1-n\alpha)\overline{z_{act}}}\)
지금부터는 N이 무한히 큰 경우만 생각하겠습니다. 한 자리가 z만큼의 에너지를 가질 확률밀도를 P(z)라고 합시다. P(1)은 새로운 사태가 일어날 비율(rate)이며, P(0)은 무너진 후 에너지가 0이 된 자리가 생겨나는 비율(rate)이며 곧 σ와 동일합니다.
\(\langle s\rangle=P(0)/P(1)\)
사태의 크기는 새로운 사태가 일어난 후 얼마나 많은 자리가 무너졌느냐이므로 위식처럼 쓸 수 있습니다.
어떤 자리의 에너지 z는 마지막으로 무너진 후(즉 z = 0)에 다른 무너진 자리의 이웃으로 선택되어 에너지를 받았거나, 사태 사이의 에너지 주입에 의한 결과입니다. 이웃으로 선택된 횟수를 j라고 하면 Pj(z)는 j번 선택된 자리의 에너지가 z일 확률밀도가 되죠.
\(P(z)=\sum_{j=0}^mP_j(z),\ z\in [0,1]\)
이중에서도 일단 P0(z)만 구하겠습니다. j가 0이므로 여기서 z는 에너지 주입이 z 시간 단위 동안 이루어진 결과입니다. 즉 마지막으로 무너진 후 z라는 시간이 흐르는 동안 한 번도 이웃으로 선택되지 않을 확률을 구하면 됩니다. 뿌아송 확률분포를 이용하면 다음과 같습니다.
\(P_0(z)=\sigma e^{-n\sigma z}\)
지수함수 앞에 σ가 붙은 건, 일단 한 번은 무너지고나서 z 시간 단위 동안 선택되지 않아야 하므로, '일단 한 번 무너진 자리'라는 조건에 해당합니다. 이제 재료는 완성되었습니다. 위 결과들을 좌르륵 꿰면...
\(\langle s\rangle = \frac{\sigma}{P(1)}\leq \frac{\sigma}{P_0(1)}=\exp(n\sigma)\leq \exp\left(\frac{n}{1-n\alpha}\right)\)
마지막 부등식은 zact가 1 이상이라는 사실로부터 얻어졌습니다. 이제 이 결과를 보면 α가 1/n보다 작으면 우변이 유한하므로 평균 사태 크기도 유한할 수밖에 없습니다. 이는 임계성이 아니라는 걸 말합니다. 임계성이 되려면 α = 1/n이어야 하고, 이는 곧 에너지 보존을 뜻합니다.
또 한 가지 알 수 있는 사실은, 평균 사태 크기의 최대값(맨 우변)이 α가 1/n보다 작아도 꽤 큰 값이라는 겁니다. 그래서 컴퓨터 시늉내기에서 어느 정도 거듭제곱 분포가 나온다고 하더라도 최대값까지 시늉내기가 되지 않았기 때문에 완전히 믿을 수 있는 결과가 아니라는 말이죠. 이 얘기는 앞 글에서 언급한 무노즈의 논문에 나오는 내용입니다.
그런데 이런 과정이 정말 다 필요한가?라고 물을 수 있는데요, 맨 처음 쓴 에너지 증가량과 감소량이 같아야 한다는 식만 봐도 알 수 있을 것 같거든요\[(1-n\alpha)\overline{z_{act}}\langle s\rangle = N(1-\overline{z_{max}})\]
논문에서는 N이 무한해도 좌변은 유한해야 한다는 전제를 쓰는데, 그럼 여기서 이미 α가 1/n보다 작으면(비보존) 평균 사태 크기가 유한하다(비임계성)는 결론이 나옵니다;;; 일단 이 전제가 왜 당연한 건지 모르겠네요.