多世界 W の確率構造
初級編では多世界 W を「可能世界の集合」として直観的に扱いました。中級編はここを精密化します。W に確率測度を入れて Bayesian 認知主体として記述する数学的な土台を組み立てます。
なぜ確率構造が必要か
初級編で出した期待値積分:
$$ \pi_c(x) = \arg\min_{u(t)} \mathbb{E}\left[ \int_0^T V(x(t), t)\, dt \right] $$
の $\mathbb{E}[\cdot]$ は 可能世界に対する重み付き平均でした。「重み付き平均」を厳密に書くには、W の上に 確率測度 $\mu : \Sigma \to [0, 1]$ を定める必要があります。$\Sigma$ は W の可測部分集合の集まり(σ-代数)です。
つまり W は単なる集合ではなく、可測空間 $(W, \Sigma, \mu)$ として扱う。
σ-代数 Σ の最小要件
$\Sigma$ は次を満たす W の部分集合族です:
- $\emptyset \in \Sigma$、$W \in \Sigma$(空集合と全体が入る)
- $A \in \Sigma \Rightarrow A^c \in \Sigma$(補集合が閉じる)
- $\{A_n\} \subset \Sigma \Rightarrow \bigcup_n A_n \in \Sigma$(可算和が閉じる)
直観:「測れる事象の集まり」。「明日雨が降る世界の集合」「自分が転職している世界の集合」は $\Sigma$ の元として扱える。
確率測度 μ
$\mu$ は次を満たす関数 $\Sigma \to [0, 1]$ です:
- $\mu(\emptyset) = 0$、$\mu(W) = 1$
- σ-加法性:互いに素な $\{A_n\}$ について $\mu(\bigcup_n A_n) = \sum_n \mu(A_n)$
これで「ある事象 A が起こる確率は $\mu(A)$」と書ける土台が整います。
期待値の厳密定義
$V : W \to \mathbb{R}$(実数値関数)に対し、期待値は積分として定義されます:
$$ \mathbb{E}[V] = \int_W V(w)\, d\mu(w) $$
これが Lebesgue 積分です。離散的な場合は $\sum_w V(w) \mu(\{w\})$、連続的な場合は密度関数 $p(w)$ を介して $\int V(w) p(w) dw$ になります。
Bayesian 認知主体としての解釈
T 理論は認知主体を Bayesian 推論器として位置づけます。
- 事前分布 $\mu_{\text{prior}}$:現状での可能世界への信念
- 観測データ $D$:新しい情報
- 事後分布 $\mu_{\text{post}}(\cdot \mid D)$:更新された信念
Bayes の定理:
$$ \mu_{\text{post}}(A \mid D) = \frac{\mu(D \mid A) \mu_{\text{prior}}(A)}{\mu(D)} $$
T 理論で 臨場感 P を引き上げる作業は、特定の世界 $w_*$ に対する $\mu_{\text{post}}(w_*)$ を高める操作 として解釈できます。観測データ(視覚化・体験・コーチング)が事後分布を変える。
到達可能集合 R(t; x_0) の確率版
決定論版では $R(t; x_0) = \{x(t) : u(\cdot) \in \mathcal{U}\}$ でしたが、確率版では:
$$ \mathcal{R}_t(x_0) = \mathrm{supp}\big(\mu_t(\cdot \mid x_0)\big) \subseteq W $$
つまり「初期 $x_0$ から出発した時、時刻 $t$ で正の確率で居る世界の集合」です。確率測度のサポート(密度が 0 でない領域)。
TCZ の確率的再定義
これで TCZ も確率版で書き直せます:
$$ \mathrm{TCZ}(x_0) = \bigcup_{t \ge 0} \big\{ w \in \mathcal{R}_t(x_0) : V(w, t) \le \theta \big\} $$
決定論版と形は同じですが、$\mathcal{R}_t$ が 確率測度のサポートとして定義されている分、より一般的(不確実性を含む系)で扱えます。
期待値積分の意味の精密化
初級編で「降り積もる累積不快」と書いたものは、確率版では:
$$ \mathbb{E}\left[ \int_0^T V \, dt \right] = \int_0^T \mathbb{E}[V(x(t), t)] \, dt = \int_0^T \int_W V(w, t)\, d\mu_t(w)\, dt $$
二重積分 — 時間軸 × 可能世界軸の累積です。フビニの定理が成り立つ条件下で順序を入れ替えられます。
積分の存在条件(完全情報)
期待値積分が 有限値になるには次が必要です:
- $V$ が可測(つまり $V^{-1}((-\infty, c])$ が $\Sigma$ に入る、任意の $c$ で)
- $V$ が 可積分(${\int |V|\, d\mu < \infty}$)
実用上は $V$ が連続かつ有界な範囲で扱うので、これらは自動的に満たされます。理論的には $V$ が爆発する経路があると積分が発散しうる(回避項 $Q_-$ が無限大に立つ場合等)。
認知系での応用上の注意
数学的に整備された $(W, \Sigma, \mu)$ を仮定しますが、実際の人間認知が σ-加法性を満たすかは経験的問題です:
- Tversky-Kahneman の研究は「人間の確率判断は加法性から逸脱する」ことを示しています
- T 理論は 規範的モデル(理想的な認知主体がどう動くか)であり、記述的モデル(実際の人がどう動くか)とのギャップを認める必要がある
これは初級編 §「数学的厳密性についての完全情報」と同じスタンスです。
- W は単なる集合ではなく 可測空間 $(W, \Sigma, \mu)$ として扱う
- 期待値は Lebesgue 積分 $\int_W V \, d\mu$ で厳密化
- 認知主体は Bayesian 推論器として位置づけられる
- 臨場感 P を上げる = 事後分布を特定の $w_*$ に集中させる
- 確率版 TCZ は決定論版の自然な拡張
確認
問:Bayesian 推論を T 理論的に解釈すると、コーチングの介入は何を更新する作業ですか?
解答を見る
事前分布 $\mu_{\text{prior}}$ を事後分布 $\mu_{\text{post}}$ に更新する作業です。具体的には: - 受講者の「目標の世界 $w_*$ がリアルだ」と感じる程度($\mu(w_*)$)を高める - そのために「観測データ $D$」となる体験(成功例 / 視覚化 / 中間ブリッジ)を提示 - 結果として $\mu_{\text{post}}(w_* \mid D) > \mu_{\text{prior}}(w_*)$ になる
これが 臨場感 P を上げる ことの数理的記述。「願えば叶う」が効かないのは、観測データなしに事後を更新できないため。
確認
問:期待値 $\mathbb{E}[V]$ と単純平均 $\frac{1}{n}\sum V$ の違いは何ですか?
解答を見る
- 単純平均:全要素を等重みで扱う($\mu = \frac{1}{n}$ 一様分布)
- 期待値:確率測度 $\mu$ で重みづけ — どの世界が起こりやすいかで平均
T 理論で意思決定が単純平均ではなく期待値を最小化するのは、起こりやすさの違いを織り込むため。「ありうるが滅多に起きない世界」の不快を「ほぼ確実な世界」の不快と同じに扱うのは現実的でない、という認識論的判断です。
次章への接続
可測空間 $(W, \Sigma, \mu)$ という数理基盤の上に、T 理論は Lyapunov 関数 $\Phi$ を構築して収束を示します。次章では $\Phi$ の設計論 — エネルギー型 / Bregman 型 / 評価関数型の 3 つの構成法を扱います。