nano_exit

基礎的なことこそ、簡単な例が必要だと思うのです。

Bosonの多電子波動関数

参考文献:Fetter-Walecka

Bosonの多電子波動関数 \Psi^Bは一電子Boson波動関数 \psi^Bおよび展開係数 Cを用いて、一般に以下のように書ける。

\displaystyle
\Psi^B( x_1, \cdots, x_N; t )
\\
\displaystyle
\qquad
  = \sum_{ i_1, \cdots, i_N } C( i_1, \cdots, i_N; t ) \, \psi^B_{i_1}( x_1 ) \cdots \psi^B_{i_N}( x_N )
\\
\displaystyle
\qquad
  = \sum_{ n_1, \cdots, n_\infty } C( n_1, \cdots, n_\infty; t )  \sum_{ i_1, \cdots, i_N \\ (n_1, \cdots, n_\infty ) } \, \psi^B_{i_1}( x_1 ) \cdots \psi^B_{i_N}( x_N )

上記に対する例を挙げると、

\displaystyle
\Psi^B( x_1, x_2, x_3 ; t ; n_1 = 2, n_2 = 1 )
\\
\displaystyle
\qquad
  = C( 1, 1, 2; t ) \psi^B_{1}( x_1 ) \psi^B_{1}( x_2 ) \psi^B_{2}( x_3 )
\\
\displaystyle
\qquad \qquad
  + C( 1, 2, 1; t ) \psi^B_{1}( x_1 ) \psi^B_{2}( x_2 ) \psi^B_{2}( x_3 )
\\
\displaystyle
\qquad \qquad
  + C( 2, 1, 1; t ) \psi^B_{2}( x_1 ) \psi^B_{1}( x_2 ) \psi^B_{1}( x_3 )
\\
\displaystyle
\qquad
  = C( n_1=2, n_2 = 1; t )
\\
\displaystyle
\qquad \qquad
  \times \left( \psi^B_{1}( x_1 ) \psi^B_{1}( x_2 ) \psi^B_{2}( x_3 ) \right.
\\
\displaystyle
\qquad \qquad \qquad
  + \psi^B_{1}( x_1 ) \psi^B_{2}( x_2 ) \psi^B_{1}( x_3 )
\\
\displaystyle
\qquad \qquad \qquad
  \left. + \psi^B_{2}( x_1 ) \psi^B_{1}( x_2 ) \psi^B_{1}( x_3 ) \right)
\\
\displaystyle
\qquad
  = C( n_1=2, n_2 = 1; t ) \sum_{ i_1, i_2, i_3 \\ (n_1 = 2, n_2 = 1 ) } \psi^B_{i_1}( x_1 ) \psi^B_{i_2}( x_2 ) \psi^B_{i_3}( x_3 )
\\
\displaystyle
\because
C( 1, 1, 2; t ) = C( 1, 1, 2; t ) = C( 1, 1, 2; t ) \equiv C( n_1 = 2, n_2 = 1; t )

注意として、

\displaystyle
\sum_{i_1, \cdots, i_N} | C( i_1, \cdots, i_N; t ) |^2 = 1
\\
\displaystyle
\sum_{i_1, \cdots, i_N} | C( n_1, \cdots, n_\infty; t ) |^2 = 1
\\
\displaystyle
\sum_{n_1, \cdots, n_\infty} | C( n_1, \cdots, n_\infty; t ) |^2 \sum_{ i_1, \cdots, i_N \\ (n_1, \cdots, n_\infty ) } = 1
\\
\displaystyle
\therefore
\sum_{n_1, \cdots, n_\infty} | C( n_1, \cdots, n_\infty; t ) |^2 \neq 1

占有率表示における規格化条件は、

\displaystyle
\sum_{n_1, \cdots, n_\infty} | C( n_1, \cdots, n_\infty; t ) |^2 \sum_{ i_1, \cdots, i_N \\ (n_1, \cdots, n_\infty! ) }
\\
\displaystyle
\qquad
  = \sum_{n_1, \cdots, n_\infty} | C( n_1, \cdots, n_\infty; t ) |^2 \frac{ N! }{ n_! \cdots n_\infty! }
\\
\displaystyle
\qquad
  = \sum_{n_1, \cdots, n_\infty} \left| \left( \frac{ N! }{ n_! \cdots n_\infty! } \right)^{1/2} C( n_1, \cdots, n_\infty; t ) \right|^2
\\
\displaystyle
\qquad
  \equiv \sum_{n_1, \cdots, n_\infty} \left| c^B( n_1, \cdots, n_\infty; t ) \right|^2 = 1
 x_1, \cdots x_N のうち、"1"の状態に割り振る数を n_1、"2"に割り振る数を n_2 \cdotsと分けていったときの組み合わせの数が \frac{ N! }{ n_! \cdots n_\infty! }であることに注意。
これは、前回の記事において、 r = N M \rightarrow \inftyとしたものに対応する。
koideforest.hatenadiary.com

したがって、

\displaystyle
\Psi^B( x_1, \cdots, x_N; t )
\\
\displaystyle
\qquad
  = \sum_{ n_1, \cdots, n_\infty } C( n_1, \cdots, n_\infty; t )  \sum_{ i_1, \cdots, i_N \\ (n_1, \cdots, n_\infty ) } \, \psi^B_{i_1}( x_1 ) \cdots \psi^B_{i_N}( x_N )
\\
\displaystyle
\qquad
  = \sum_{ n_1, \cdots, n_\infty } c^B( n_1, \cdots, n_\infty; t )  \left( \frac{ n_! \cdots n_\infty! }{ N! } \right)^{1/2} \sum_{ i_1, \cdots, i_N \\ (n_1, \cdots, n_\infty ) } \, \psi^B_{i_1}( x_1 ) \cdots \psi^B_{i_N}( x_N )
\\
\displaystyle
\qquad
  \equiv \sum_{ n_1, \cdots, n_\infty } c^B( n_1, \cdots, n_\infty; t )  \Phi^B_{n_1, \cdots n_\infty }( x_1, \cdots, x_N )

 \Phi^Bは、規格直交条件を満たしている。逆に言えば、ただの一粒子波動関数の積の和は規格化されていない。
 
\displaystyle
\int \left( \prod^N_{i=1} dx_i \right) \sum_{ i'_1, \cdots, i'_N \\ (n_1, \cdots, n_\infty ) } \sum_{ i_1, \cdots, i_N \\ (n_1, \cdots, n_\infty ) } \left[ \psi^B_{i'_1}( x_1 ) \cdots \psi^B_{i'_N}( x_N ) \right]^* \psi^B_{i_1}( x_1 ) \cdots \psi^B_{i_N}( x_N )
\\
\displaystyle
\qquad
  = \sum_{ i'_1, \cdots, i'_N \\ (n_1, \cdots, n_\infty ) } \sum_{ i_1, \cdots, i_N \\ (n_1, \cdots, n_\infty ) } \prod^N_{j=1} \delta_{i'_j i_j}
\\
\displaystyle
\qquad
  = \sum_{ i_1, \cdots, i_N \\ (n_1, \cdots, n_\infty ) } = \frac{ N! }{ n_! \cdots n_\infty! }
\\
\displaystyle
\therefore
\int \left( \prod^N_{i=1} dx_i \right) \left[ \Phi^B_{n'_1, \cdots n'_\infty }( x_1, \cdots, x_N )\right]^\dagger \Phi^B_{n_1, \cdots n_\infty }( x_1, \cdots, x_N )
  = \prod^\infty_{j=1} \delta_{n'_j n_j}

これにより、Fermionの多体波動間数と比較して、 \prod_i \sqrt{ n_i ! } の分だけ規格化定数が変更される。

組み合わせの一般化。

 N個の要素(例えば番号の振られたボール)のうち r個を取り出して、それを M個のグループ(例えば番号の振られた筒)に分けたときに、各グループ内の要素の個数が n_1, \cdots, n_Mとなる組み合わせの数は、

\displaystyle
\frac{ N! }{ n_1! n_2! \cdots n_M! (N-r)! }
ただし

\displaystyle
\sum^M_{i=1} n_i = r

  • 証明

 N個の要素(例えば番号の振られたボール)から r個を取り出して並べる順列は、

\displaystyle
{}_NP_r = \frac{ N ! }{ ( N - r )! }
で与えられる。

この順列において、前から n_1個の要素をグループ1に入れ、その後ろ n_2個をグループ2に入れる。
 n_i \, (i > 2 )も同様のグループ分けを行うことで、全ての要素のグループ分けが完了する。

イメージとしては、透明な筒を1から順に並べておいて、 N個ボールの入った籠からランダムにボールを一個取り出しては筒1の中のボールの個数が n_1になるまでボールを入れて、 n_1個になったら筒2にボールを n_2個になるまで入れていくという感じ。
ボールの方の順番が変わるため、筒の順番は固定させておかなければならない。
また、筒に入れることによって、入れたボールの順番が分かる。

欲しいのは組み合わせだから、筒の中に入ったボールにおける順列の数だけ重複が存在する。
したがって、元の順列 {}_NP_r n_1!, n_2!, \cdotsで割ることによって、求めるべき組み合わせの数が得られる。

はじめてのベイズ法。

IPythonデータサイエンスクックブックに載っていた内容の紹介。

以下、言葉と記号を整理しておく。

  •  p: モデルを構成するパラメータ。ただし、確率変数として扱っていく。
  •  P(p): 「事前確率分布」と呼ばれる、 pを決定するのに何も情報を持っていない時に仮定する pの確率。一般的かつ直感的なのは、一様分布の事前確率分布 P(p)=const.である。
  •  P({x_i}|p):  pをある値に固定した時に測定結果 \{x_i\}を得る確率。これがいわゆるモデル関数になる。
  •  P(p|{x_i}): 「事後確率分布」と呼ばれる、測定結果 \{ x_i \} を得た時に pが尤もらしくある確率。これが最終的に求めたいものである。
  •  P( {x_i} ) : 測定結果 \{ x_i \} が得られる確率。これは後に見るように、事後確率分布の規格化定数のように扱われる。

ここでは、イカサマが疑われるコインの表が出る確率を pとし、このコインを用いたコイントスに対してベイズ法を適用する。
定義として、コインを投げた回数を n、そのうち表が出た回数を hとし、この測定結果の集合を \{ x_i \}^n_hと表記することにする。( x_i  i回目に出た面を表す)

pは確率であるため、 p \in [ 0, 1] であり、一様な事前確率分布は、

\displaystyle
\int^1_0 dp \, P(p) = 1 \times const. = 1
\\
\displaystyle
\therefore
P( p ) = 1
と求まる。

ベイズの定理より、

\displaystyle
P( p | \{ x_i \}^n_h )
  = \frac{ P( \{x_i\}^n_h | p ) P( p ) }{ P( \{ x_i \}^n_h ) }
  = \frac{ P( \{x_i\}^n_h | p ) P( p ) }{ \int dp \, P( \{ x_i \}^n_h | p ) P( p ) }
\\
\displaystyle
\because
P( \{ x_i \}^n_h ) = P( \{ x_i \}^n_h | p ) P( p )
最後は全確率の公式を用いた。

表が出る確率 pに対し、 n回コインを投げて h回表が出る確率 P(\{x_i\}^n_h|p)は、

\displaystyle
P(\{x_i\}^n_h|p)
  = p^h ( 1 - p )^{ n- h }
で与えられる。

 P( p ) = 1であるため、 P( \{ x_i \}^n_h )は、

\displaystyle
P( \{x_i\}^n_h )
  = \int^1_0 dp \, P( {x_i}^n_h | p ) P( p )
  = \int^1_0 dp \, P( {x_i}^n_h | p )
\\
\displaystyle
\qquad
  = \int^1_0 dp \, p^h ( 1 - p )^{ n- h }
\\
\displaystyle
\qquad
  = \left[ - \frac{ 1 }{ n - h } p^h ( 1 - p )^{ n- ( h - 1) } \right]^1_0 + \frac{ h }{ n - h } \int^1_0 dp \, p^{h-1} ( 1 - p )^{ n- ( h - 1 ) }
\\
\displaystyle
\qquad
  = \frac{ h }{ n - h } \int^1_0 dp \, p^{h-1} ( 1 - p )^{ n- ( h - 1 ) }
\\
\displaystyle
\qquad
  = \frac{ 1 }{ {}_nC_h } \int^1_0 dp \, ( 1 - p )^{ n }
\\
\displaystyle
\qquad
  = \frac{ 1 }{ {}_nC_h } \left[ - \frac{ 1 }{ n + 1 } ( 1 - p )^{ n + 1 } \right]^1_0
\\
\displaystyle
\qquad
  = \frac{ 1 }{ n + 1 } \frac{ 1 }{ {}_nC_h}

したがって、事後確率 P( p | \{ x_i \}^n_h ) は、

\displaystyle
P( p | \{ x_i \}^n_h )
  = (n+1) {}_nC_h p^h ( 1 - p )^{ n - h }
と求まる。

例として、 ( n, h ) = ( 100, 70 ) の時、事後確率分布はそれなりに鋭く、「コインはイカサマである」と結論付けるのが尤もらしいと言える。
f:id:koideforest:20190923231726p:plain

一方で、 ( n, h ) = ( 10, 7 ) の時は分布関数がより広がっており、「コインがイカサマであるのが尤もらしい」とは言い難い。
f:id:koideforest:20190923231850p:plain

調和振動における滞在時間からの分布関数の導出。

古典的な調和振動は以下のように表される。

\displaystyle
x(t) = x_0 \cos( \omega t )
\\
\displaystyle
t( x ) = \frac{ 1 }{ \omega } \cos^{-1}\left( \frac{ x }{ x_0 } \right)

周期 T = 2\pi / \omegaを用いて、この振動の(位置)期待値を取ると、

\displaystyle
\langle x \rangle
  = \frac{ \int^T_0 dt\, x(t) }{ \int^T_0 dt  }
  = \frac{ 1 }{ T }\left[ \frac{ x_0 }{ \omega } \sin( \omega t ) \right]^T_0
  = 0
つまり、原点に多く存在している「ように」見える。

次に、標準偏差を取ると、

\displaystyle
\sqrt{ \langle x^2 \rangle }
  = \sqrt{ \frac{ \int^T_0 dt\, x^2(t) }{ \int^T_0 dt  } }
  = \sqrt{ \frac{ x_0^2 }{ T } \int^T_0 dt\, \left(   \frac{ 1 }{ 2 } + \frac{ \cos( 2 \omega t ) }{ 2 } \right) }
\\
\displaystyle
\qquad
  = \frac{ x_0 }{ \sqrt{ 2 } } \approx 0.70 x_0
となり、「少なくとも」常に原点にいるわけではないことがわかる。

一方、原点からの距離 r = \sqrt{ x^2 } = |x| の期待値は、

\displaystyle
\langle r \rangle = \langle \sqrt{ x^2 } \rangle = \langle | x | \rangle
\\ 
\displaystyle
\qquad
  = \frac{ \int^{T/4}_0 dt\, x(t) + \int^{3T/4}_{T/4} dt\, (- x(t) ) + \int^{T}_{3T/4} dt\, x(t) }{ \int^T_0 dt  }
\\ 
\displaystyle
\qquad
  = \frac{ x_0 }{ \omega T } \left\{ \left[ \sin( \omega t ) \right]^{T/4}_0 - \left[ \sin( \omega t ) \right]^{3T/4}_{T/4} + \left[ \sin( \omega t ) \right]^{T}_{3T/4} \right\}
\\ 
\displaystyle
\qquad
  = \frac{ x_0 }{ \omega T } 4 = \frac{ 2 }{ \pi } x_0 \approx 0.63 x_0
となり、やはり原点に質点がいることが多いわけではないことがわかる。

この「いることが多い」という分布関数的な表現を、「滞在時間が長い」という風に解釈し直すと、 [ x, x + dx ] 区間に質点が滞在する時間は、

\displaystyle
\Delta t = \left| \frac{ dt }{ d x } dx \right|= \left| \left( \frac{ 1 }{ d x / d t } \right) dx \right|
  = \frac{ dx }{ | v( t ) | }
\\
\displaystyle
\qquad
  = \frac{ dx }{ x_0 \omega \sin( \omega t ) }
  = \frac{ dx }{ x_0 \omega \sqrt{ 1 - \cos^2( \omega t ) } }
\\
\displaystyle
\qquad
  = \frac{ dx }{ x_0 \omega \sqrt{ 1 - (x/x_0)^2 } }
  = \frac{ dx }{ \omega \sqrt{ x_0^2 - x^2 } }
 x = x_0 で明らかに発散してしまうが、振動範囲内の積分 \int dx\, \Delta tは有限である。

\displaystyle
\int^{x_0}_{-x_0} \frac{ dx }{ \omega \sqrt{ x_0^2 - x^2 } }
  = \int^{x_0}_{-x_0} \frac{ dx }{ x_0 \omega \sqrt{ 1 - ( x / x_0 )^2 } }
\\
\displaystyle
\qquad
  = \int^{1}_{-1} \frac{ du }{ \omega \sqrt{ 1 - u^2 } }
  = \int^{\pi}_{0} \frac{ \sin\theta d\theta }{ \omega \sqrt{ 1 - \cos^2\theta } }
\\
\displaystyle
\qquad
  = \int^{\pi}_{0} \frac{ d\theta }{ \omega }
  = \frac{ \pi }{ \omega } = T / 2
これの2倍が一周分であり、それは周期 Tに一致している。
したがって、分布関数的なものとして p(x)が定義出来る。

\displaystyle
p(x)
  = \frac{1}{T} \frac{ 1 }{ \omega \sqrt{ x_0^2 - x^2 } }
  = \frac{\omega}{2\pi} \frac{ 1 }{ \omega \sqrt{ x_0^2 - x^2 } }
  = \frac{ 1 }{ 2 \pi \sqrt{ x_0^2 - x^2 } }
\\
\displaystyle
2 \int^{x_0}_{-x_0} dx\, p(x) = 1
振動の行きと帰りで運動は同じなので、半周期で規格化した P(x) = 2 p(x)を定義すると便利である。

\displaystyle
\int^{x_0}_{-x_0} P(x) = 1

この分布関数を用いて、平均、標準偏差および距離の期待値を求めてみる。
まずは平均だが、P(-x) = P(x)であるため、期待値はすぐにゼロとなり、前に求めものと一致する。

\displaystyle
\langle x \rangle = \int^{x_0}_{-x_0} dx \, x P(x) = 0

次に標準偏差を求めると、

\displaystyle
\langle x^2 \rangle
  = \int^{x_0}_{-x_0} dx \, x^2 P(x)
  = \frac{ 1 }{ \pi } \int^{x_0}_{-x_0} \frac{ x_0^2 (x / x_0 )^2 dx }{ x_0 \sqrt{ 1 - ( x / x_0 )^2 } }
\\
\displaystyle
\qquad
  = \frac{ x_0^2 }{ \pi } \int^{1}_{-1} \frac{ u^2 du }{ \sqrt{ 1 - u^2 } }
  = \frac{ x_0^2 }{ \pi } \int^{\pi}_{0} \frac{ \cos^2\theta \sin\theta d\theta }{ \sqrt{ 1 - \cos^2\theta } }
\\
\displaystyle
\qquad
  = \frac{ x_0^2 }{ \pi } \int^{\pi}_{0} d\theta \, \cos^2\theta
  = \frac{ x_0^2 }{ \pi } \frac{ \pi }{ 2 }
\\
\displaystyle
\qquad
  = \frac{ x_0^2 }{ 2 }
\\
\displaystyle
\therefore
\sqrt{ \langle x^2 \rangle } = \frac{ x_0 }{ \sqrt{ 2 } }
となり、前に求めたものと一致する。

最後に原点からの距離の期待値を求めると、

\displaystyle
\langle r \rangle = \langle |x| \rangle = \langle \sqrt{ x^2 } \rangle
\\
\displaystyle
\qquad
  = 2 \int^{x_0}_{0} dx \, x P(x)
  = \frac{ 2 x_0 }{ \pi } \int^{\pi/2}_{0} d\theta \, \cos\theta
  = \frac{ 2 x_0 }{ \pi }
\\
\displaystyle
\qquad
  = \frac{ 2 }{ \pi } x_0
よって、これも前の結果と一致している。

分布関数は「その位置に質点がいる確率(密度)」を表していて、それが滞在時間と綺麗に対応するのは直感に合っていて、とても気持ち良い。

無限級数の部分和による近似。

無限級数を部分和に分解したときに、相対誤差がどのようになるかを考察してみた。
無限級数を以下のように定義する。

\displaystyle
\sum_{n = 0}^\infty c^n
  = \frac{ 1 }{ 1 - c }
  \quad ( 0 \le c < 1 )

この無限級数を次の様に部分和で近似してみる。

\displaystyle
\frac{ 1 }{ 1 - c } = \frac{ 1 }{ 1 - ( \alpha + ( 1 - \alpha ) ) c }
\\
\displaystyle
\quad
\approx  \frac{ 1 }{ 1 - \alpha c }  + \frac{ 1 }{ 1 - ( 1 - \alpha ) c  } = \frac{ 2 - c }{ 1 - c + \alpha( 1 - \alpha ) c^2 }
  \quad ( 0 \le \alpha \le 1 )

この近似の相対誤差は、

\displaystyle
\left( \frac{ 1 }{ 1 - \alpha c }  + \frac{ 1 }{ 1 - ( 1 - \alpha ) c  } \right) / \left( \frac{ 1 }{ 1 - c } \right) = \frac{ 2 - 3 c + c^2  }{ 1 - c + \alpha( 1 - \alpha ) c^2 }
f:id:koideforest:20190915161708p:plain

更に、 \alpha = 0, 1で元の無限級数に一致させるために、重み付けして和を取ると、

\displaystyle
\frac{ 1 }{ 1 - c }
\approx  \alpha \frac{ 1 }{ 1 - \alpha c }  + ( 1 - \alpha ) \frac{ 1 }{ 1 - ( 1 - \alpha ) c  } = \frac{ 1 - 2 \alpha ( 1 - \alpha ) c }{ 1 - c + \alpha( 1 - \alpha ) c^2 }
この相対誤差は、
f:id:koideforest:20190915161655p:plain

また、一部の部分和のみを取る場合、

\displaystyle
\frac{ 1 }{ 1 - c }
\approx  \frac{ 1 }{ 1 - \alpha c }
その相対誤差  ( 1 - c ) / ( 1 - \alpha c ) は以下のようになる。
f:id:koideforest:20190915161639p:plain
 cが1に極めて近いとき、 \alphaが1からちょっと小さくなっただけで、相対誤差がかなり大きくなる(ゼロに近い=元に比べてすごく小さくなっている)。

この「一部の部分和のみを取る近似」を、 c > 1 の範囲にまで拡張してみてみると、
f:id:koideforest:20190915163122p:plain
 c \rightarrow \inftyの時、相対誤差は ( 1 - c ) / ( 1 - \alpha c ) \rightarrow 1 / \alphaに収束するが、その様子が表れている。
量子力学における、部分和による繰り込みで、「繰り込む項を増やすとどうなるか」についての何となくイメージを掴みたくてやってみたが、「 \alpha をどれだけ1に近づけられるか」という視点で近似を眺めれば、最強発散する項だけ拾うのは理に適っているように感じた。

Campbell-Baker-Hausdorffの公式と生成消滅演算子の時間発展。

いつも公式を忘れるので、ここでまとめる。
Campbell-Baker-Hausdorffの公式を帰納法を用いて証明する。

\displaystyle
f( \lambda ) = e^{ \lambda A } B e^{ - \lambda A }
\\
\displaystyle
f^{(1)}( \lambda ) = e^{ \lambda A } \lambda [ A, B ] e^{ - \lambda A } =: e^{ \lambda A } C^{(1)} e^{ - \lambda A }
\\
\displaystyle
f^{(2)}( \lambda ) = e^{ \lambda A } \lambda [ A, C^{(1)} ] e^{ - \lambda A }
  = e^{ \lambda A } \lambda^2 [ A, [ A, B ] ] e^{ - \lambda A }
  =: e^{ \lambda A } C^{(2)} e^{ - \lambda A }
帰納法を使えば、

\displaystyle
f^{(n)}( \lambda ) =: e^{ \lambda A } C^{(n)} e^{ - \lambda A } = e^{ \lambda A } \lambda^n [ A, \cdots [ A, B ] \cdots ] e^{ - \lambda A }
\\
\displaystyle
f^{(n+1)}( \lambda ) = e^{ \lambda A } \lambda [ A, C^{(n)} ] e^{ - \lambda A }
  = e^{ \lambda A } \lambda^{n+1} [ A, [ A, \cdots [ A, B ] \cdots ] ] e^{ - \lambda A }
\\
\displaystyle
\qquad
  = e^{ \lambda A } C^{(n+1)} e^{ - \lambda A }
したがって、一般の次数における微分係数が求まったため、Maclaurin展開より、

\displaystyle
f( \lambda ) = \sum_{n=0} \frac{ \lambda }{ n! } f^{(n)}( 0 )
\\
\displaystyle
e^{ \lambda A } B e^{ - \lambda A } = B + \lambda [ A, B ] + \frac{ \lambda^2 }{ 2!}[ A, [ A, B ]] + \cdots

Campbell-Baker-Hausdorffの公式を(自由)電子系に応用する。
(電子)ハミルトニアン第二量子化で次のように定義されているとする。

\displaystyle
H = \sum_k \varepsilon_k c^\dagger_k c_k

生成消滅演算子の時間発展は、ハミルトニアンが時間に依存しなければ、一般に以下のように書ける。

\displaystyle
c^\dagger_{k_0}( t ) = e^{ i H t / \hbar } c^\dagger_{k_0} e^{ - i H t / \hbar }
\\
\displaystyle
c_{k_0}( t ) = e^{ i H t / \hbar } c_{k_0} e^{ - i H t / \hbar }

これらをCampbell-Baker-Hausdorffの公式を用いて計算すると、

\displaystyle
[ H, c^\dagger_{k_0} ]
  = \sum_k \varepsilon_k [ c^\dagger_k c_k, c^\dagger_{k_0} ]
\\
\displaystyle
\qquad
  = \sum_k \varepsilon_k ( c^\dagger_k c_k c^\dagger_{k_0} - c^\dagger_{k_0} c^\dagger_k c_k )
\\
\displaystyle
\qquad
  = \sum_k \varepsilon_k ( c^\dagger_k \delta_{ k k_0 } - c^\dagger_k c^\dagger_{k_0} c_k - c^\dagger_{k_0} c^\dagger_k c_k )
\\
\displaystyle
\qquad
  = \varepsilon_{k_0} c^\dagger_{k_0}

\displaystyle
[ H, c_{k_0} ]
  = \sum_k \varepsilon_k [ c^\dagger_k c_k, c_{k_0} ]
\\
\displaystyle
\qquad
  = \sum_k \varepsilon_k ( c^\dagger_k c_k c_{k_0} - c_{k_0} c^\dagger_k c_k )
\\
\displaystyle
\qquad
  = \sum_k \varepsilon_k ( c^\dagger_k c_k c_{k_0} - \delta_{ k k_0 } c_k + c^\dagger_k c_{k_0}  c_k )
\\
\displaystyle
\qquad
  = - \varepsilon_{k_0} c_{k_0}

よって、 \lambda = i t / \hbar とすれば、

\displaystyle
c^\dagger_{k_0}( t ) = c^\dagger_{k_0} \sum_n \frac{ \lambda^n }{ n! } \varepsilon_{k_0}^n = c^\dagger_{k_0} e^{ \lambda \varepsilon_{k_0} }
\\
\displaystyle
c_{k_0}( t ) = c_{k_0} \sum_n \frac{ \lambda^n }{ n! } ( - \varepsilon_{k_0} )^n = c_{k_0} e^{ - \lambda \varepsilon_{k_0} }

この結果を使って、(ゼロ温度における)greater および lesser 電子Green関数  G^>, G^<を求める。

\displaystyle
G_{kk'}^>( t, t' ) = \frac{ \hbar }{ i } \langle c_k( t ) c^\dagger_{k'}( t' )  \rangle
  = \frac{ \hbar }{ i } \delta_{kk'} ( 1 - n_k ) e^{ - i \varepsilon_k ( t - t' ) }
\\
\displaystyle
G_{kk'}^<( t, t' ) = - \frac{ \hbar }{ i } \langle c^\dagger_{k'}( t' ) c_{k}( t )  \rangle
  = \frac{ \hbar }{ i } \delta_{kk'} n_k e^{ i \varepsilon_k ( t' - t ) }
\\
ややこしいが、

  •  G^> は電子の伝搬を表すが、電子を足せないと困るのでホール数に依存する(ただし  t < t' の時には、時間発展がホール的になって解釈不能))。
  •  G^< はホールの伝搬を表すが、ホールが作れないと困るので電子数に依存する(ただし  t' < t の時には、時間発展が電子的になって解釈不能))。

という風に見ることが出来る。