交換可能σ-代数

$\pi \in S_N$: 置換に対し、座標入れ替え写像 $\phi_{\pi}: \mathbb{R}^N \to \mathbb{R}^N$ を

\[\phi_{\pi}(x_1, \ldots, x_N) = (x_{\pi(1)}, \ldots, x_{\pi(N)})\]

で定義する。$B \in \mathcal{B}(\mathbb{R}^N)$ が対称であるとは $\forall \pi \in S_N$ に対し $\phi_{\pi}(B) = B$ が成立することである。

$X_1, \ldots, X_N$ から生成される交換可能σ-代数を次の $\mathcal{E}$ で定義する。

\[\begin{aligned} \hat{\mathcal{E}}_N &= \{ B \in \mathcal{B}(\mathbb{R}^N) \mid B \text{ は対称 } \} \\\\ \mathcal{E} &= \{ (X_1, \ldots, X_N)^{-1}(B) \mid B \in \hat{\mathcal{E}}_N \} \end{aligned}\]

定義の妥当性

$\hat{\mathcal{E}_N}$ がσ-代数であることがわかれば、$\mathcal{E}$ はσ-代数の可測関数による引き戻しなので、これもσ-代数であることがわかる。 そこで $\hat{\mathcal{E}_N}$ がσ-代数であることを示す。

  1. $\emptyset \in \hat{\mathcal{E}_N}$ は明らか
  2. $B \in \hat{\mathcal{E}}_N$ のとき、$\mathbb{R}^N \backslash B \in \hat{\mathcal{E}}_N$ を示す。 $\forall \pi \in S_N$ を固定する。 $(x_1, \ldots, x_N) \in \mathbb{R}^N \backslash B$ ⇔ $(x_1, \ldots, x_N) \not\in B$ ⇔ $(x_{\pi(1)}, \ldots, x_{\pi(N)}) \not\in B$ ⇔ $(x_{\pi(1)}, \ldots, x_{\pi(N)}) \in \mathbb{R}^N \backslash B$ よりわかる。
  3. $B_i \in \hat{\mathcal{E}}_N$ for $i=1,\ldots$ のとき、 $\cup_i B_i \in \hat{\mathcal{E}}_N$ を示す。 これは、$(x_1, \ldots, x_N) \in \cup_i B_i$ ⇔ $\exists i$ s.t. $(x_1, \ldots, x_N) \in B_i$ という事実から簡単にわかる。

基本的性質

交換可能σ-代数での条件付け

$X_1, \ldots, X_N$ を交換可能なr.v.、 $\mathcal{E}$ を上で定義した交換可能σ-代数とすると、$\forall i, j$ に対し

\[E[X_i \mid \mathcal{E}] = E[X_j \mid \mathcal{E}]\]

が成立する。

証明

この等式を示すには、2つの確率変数が一致する条件 より、

\[E[X_i , A] = E[X_j , A] \ \forall A \in \mathcal{E}\]

を示せばよい。そこで、$i < j$ として $A \in \mathcal{E}$ を任意に取る。すると $\mathcal{E}$ の定義より $A = (X_1, \ldots, X_N)^{-1}(B)$ となる対称な $B \in \hat{\mathcal{E}}_N$ が存在する。すると、

\[\begin{aligned} E[X_i, A] & = \int X_i \mathbf{1}_A dP \\\\ &= \int X_i \mathbf{1}_{(X_1, \ldots, X_N)^{-1}(B)} dP \\\\ &= \int X_i \mathbf{1}_B(X_1, \ldots, X_N) dP \\\\ &= \int X_i \mathbf{1}_B(X_1, \ldots, X_i, \ldots, X_j, \ldots, X_N) dP \ \cdots (a) \\\\ &= \int X_j \mathbf{1}_B(X_1, \ldots, X_j, \ldots, X_i, \ldots, X_N) dP \ \cdots (b) \\\\ &= \int X_j \mathbf{1}_B(X_1, \ldots, X_i, \ldots, X_j, \ldots, X_N) dP \ \cdots (c) \\\\ &= \int X_j \mathbf{1}_{(X_1, \ldots, X_N)^{-1}(B)} dP \\\\ &= \int X_j \mathbf{1}_A dP = E[X_j, A] \end{aligned}\]

(a)と(b)の等式は確率変数の交換可能性の期待値による特徴付けから、 (b)と(c)の等式は $B$ が対称であることから導かれる。

対称な関数を経由して生成されるσ-代数

$\psi: \mathbb{R}^N \to \mathbb{R}^M$ を対称なBorel可測写像(関数)、つまり $\forall \pi \in S_N$ と $\forall x_1 \ldots x_N \in \mathbb{R}$ に対して

\[\psi(x_1, \ldots, x_N) = \psi(x_{\pi(1)}, \ldots, x_{\pi(N)})\]

が成立する写像とする。このとき、$X_1, \ldots, X_N$ :r.v. に対して

\[\sigma(\psi(X_1, \ldots, X_N)) \subset \mathcal{E}\]

が成立する。

証明

$(\psi(X_1, \ldots, X_N))^{-1}(B) = (X_1, \ldots, X_N)^{-1}(\psi^{-1}(B))$ であるため、 任意の $B \in \mathcal{B}(\mathbb{R}^M)$ に対して $\psi^{-1}(B) \in \hat{\mathcal{E}}_N$ を示せばよい。そこで、 $\forall \pi \in S_N$ に対して、

\[\begin{aligned} & (x_1, \ldots, x_N) \in \psi^{-1}(B) \\\\ \Leftrightarrow & \ \psi(x_1, \ldots, x_N) \in B \ \cdots (a)\\\\ \Leftrightarrow & \ \psi(x_{\pi(1)}, \ldots, x_{\pi(N)}) \in B \ \cdots (b) \\\\ \Leftrightarrow & \ (x_{\pi(1)}, \ldots, x_{\pi(N)}) \in \psi^{-1}(B) \end{aligned}\]

(a)と(b)の間の同値性は $\psi$ の対称性から得られる。

交換可能σ-代数を生成する確率変数

  1. $X_1, \ldots X_N$ が $\{0, 1\}$-値確率変数(ベルヌーイ変数)である場合、 $X_1 + \cdots + X_N$ は交換可能σ-代数を生成する。
  2. $g: \mathbb{R}^N \to \mathbb{R}^N$ を $N$ 個の実数を昇順に並べる写像であるとすると、 順序統計量 $g(X_1, \ldots, X_N)$ は一般の確率変数に対して交換可能σ-代数を生成する。
  3. 経験分布、つまり $\mathcal{M}(\mathbb{R})$-値r.v. $\frac{1}{N}\sum_{n=1}^N \delta_{X_n}$ は一般の確率変数に対して交換可能σ-代数を生成する。

どれも上で説明した対称な関数を経由して生成されるので、$\sigma(S_N) \subset \mathcal{E}, \sigma(g(X_1, \ldots, X_N)) \subset \mathcal{E}$ などはわかる。逆の包含関係が問題となる。

順序統計量

まずは2.の場合を考える。このときは、 $\{g^{-1}(B) \mid B \in \mathcal{B}(\mathbb{R}^N)\} = \hat{\mathcal{E}}_N$ を示すことができる。 $\subset$ は上の証明で示されているので $\supset$ を示せばよい。 そこで $B \in \hat{\mathcal{E}}_N$ であるとき、 $g^{-1}(g(B)) = B$ であることを示せば $\supset$ の包含関係が示される。

$g^{-1}(g(B)) \supset B$ は写像の逆像に関する標準的な包含関係であるので、$g^{-1}(g(B)) \subset B$ を示せばよい。 そこで $(x_1, \ldots, x_N) \in g^{-1}(g(B))$ と置くと、$g(x_1, \ldots, x_N) \in g(B)$ である。 よって $\exists (y_1, \ldots, y_N)$ s.t.

\begin{equation} g(x_1, \ldots, x_N) = g(y_1, \ldots, y_N) \end{equation}

が成立する。 そこで、$x_1, \ldots, x_N$ および $y_1, \ldots, y_N$ を昇順に並べかえるための置換をそれぞれ $\pi, \tau \in S_n$ とおく。すなわち、

\[\begin{aligned} x_{\pi(1)} &\leq \cdots \leq x_{\pi(N)} \\\\ y_{\tau(1)} &\leq \cdots \leq y_{\tau(N)} \end{aligned}\]

となるようにすると、(1) より

\[x_{\pi(1)} = y_{\tau(1)}, \ldots, x_{\pi(N)} = y_{\tau(N)}\]

が得られる。これは

\[x_1 = y_{\pi^{-1} \circ \tau(1)}, \ldots, x_N = y_{\pi^{-1} \circ \tau(N)},\]

を意味するので、$\pi^{-1} \circ \tau \in S_n$ と $(y_1, \ldots, y_N) \in B$, さらに $B$ が対称であることより

\[(x_1, \ldots, x_N) = (y_{\pi^{-1} \circ \tau(1)}, \ldots, y_{\pi^{-1} \circ \tau(N)}) \in B\]

である。これで示された。

総和(平均)

1.の場合について考える。この場合、$\psi: \{0, 1\}^N \to \{0, \ldots, N\}$ を

\[\psi(x_1, \ldots,x_N) = \sum_{n=1}^N x_n\]

と定義すると、$X_1 + \cdots + X_N = \psi(X_1, \ldots, X_N)$ であるため、$\sigma(X_1 + \cdots + X_N)$ は

\[\{ (X_1, \ldots, X_N)^{-1}(\psi^{-1}(B)) \mid B \in \mathcal{B}(\{0, \ldots, N\}) \}\]

と表される。一方、$\hat{\mathcal{E}}_N$ の定義より

\[\hat{\mathcal{E}}_N = \{ B \in \mathcal{B}(\{0, 1\}^N) \mid B \text{ は対称} \}\]

とも表せるので、順序統計量の証明と同様に

\[\hat{\mathcal{E}}_N = \{ \psi^{-1}(B) \mid B \in \mathcal{B}(\{0, \ldots, N\}) \}\]

を示せばよい。$\supset$ はこの右辺が対称な関数を経由して生成されるσ-代数であるのでよく、$\subset$ を示せばよい。 やはり順序統計量の場合の証明と同様に、$A \in \mathcal{B}({0, 1}^N)$ ならば $A = \psi^{-1}(\psi(A))$、を示す。 $\subset$ は写像の逆像の一般論からわかるので $\supset$ を示す。

\[\begin{aligned} \mathcal{B}(\{0, 1\}^N) &= 2^{\{0, 1\}^N} \\ \end{aligned}\]

に注意して、$A \subset \{0, 1\}^N$ であるので、$(x_1, \ldots, x_N) \in \psi^{-1}(\psi(A))$ とすると、 $\psi(x_1, \ldots, x_N) \in \psi(A)$。よって $\exists (y_1, \ldots, y_N) \in A$ s.t.

\[\psi(x_1, \ldots, x_N) = \psi(y_1, \ldots, y_N)\]

すると $\sum_{n=1}^N x_n = \sum_{n=1}^N y_n$ と総和が等しい。ここで $x_n, y_n$ が0か1のどちらかであるので、この総和は「$x_1, \ldots, x_N$ に含まれる 1 の個数」に等しい(これは0/1でないと成り立たない)。 $y_n$ のほうも同様である。 よって、適当な置換 $\pi\in S_N$ によって

\[(x_1, \ldots, x_N) = (y_{\pi(1)}, \ldots, y_{\pi(N)})\]

と並び換えで一致する。$(y_1, \ldots, y_N) \in A$ で $A$ は対称なので、これは $A$ に含まれる。すなわち $(x_1, \ldots, x_N) \in A$ であり、証明したいことが示された。

ベルヌーイ変数の場合、 $\sigma(X_1, \ldots, X_N)$ は

\[\{\{X_1 = x_1\} \cup \cdots \{X_N = x_N\} \mid x_1, \ldots, x_N \in \{0, 1\} \}\]

という分割から生成されるので、$\mathcal{E}$ はこれより荒い分割から生成される。 具体的にはこの分割は $\{X_1 + \cdots + X_N = k \mid 0 \leq k \leq N\}$ である。

経験分布

3の経験分布については、$h: \mathcal{M}(\mathbb{R}) \to \mathbb{R}^N$ を以下の写像で定義する:

\[\begin{aligned} h(\mu) & = (h_{1}(\mu), \ldots, h_{N}(\mu)) \\ h_n(\mu) &= \inf\{ x \in \mathbb{R} \mid \mu((-\infty, x]) \geq n / N \} \end{aligned}\]

すると $\varphi: \mathbb{R}^n \to \mathcal{M}(\mathbb{R})$ をデータから経験分布を構成する写像、すなわち

\[\varphi(x_1, \ldots, x_N) = \frac{1}{n} \sum_{n=1}^N \delta_{x_n}\]

とすると、

\[\begin{aligned} g & = h \circ \varphi \\ \varphi & = \varphi \circ g \end{aligned}\]

であるので、順序統計量が交換可能σ-代数を生成することを経由して経験分布も交換可能σ-代数を生成することが導かれる。