Lyapunov 関数 Φ の設計論(3 型)
B.1 補題は「適切な Lyapunov 関数 Φ を選べば収束する」と述べます。では「適切な Φ」とはどう設計するのか。本章は Φ の設計論 ── 3 つの主要型と選択基準を扱います。
Lyapunov 関数の正式条件(再掲)
$\Phi : \mathcal{X} \to \mathbb{R}$ が Lyapunov 関数であるとは:
- $\Phi(x) \ge 0$ for all $x \in \mathcal{X}$(非負性)
- $\Phi(x^*) = 0$、目標点 $x^*$ で最小化(最小性)
- $\Phi$ が連続微分可能($C^1$ 級)
- 動力学に沿って $\dot{\Phi}(x) \le -\lambda \Phi(x)$、ある $\lambda > 0$(指数減少条件)
設計の核心は ④:時間沿いの減少率 $\lambda$ を出せる $\Phi$ を見つけること。
型 1 — エネルギー関数型
物理学に由来する古典型。系のエネルギーが減少することで安定性を示します。
例:減衰調和振動子 $\ddot{x} + b\dot{x} + kx = 0$($b, k > 0$)。
$$ \Phi(x, \dot{x}) = \frac{1}{2}k x^2 + \frac{1}{2}\dot{x}^2 \quad \text{(位置エネルギー + 運動エネルギー)} $$
時間微分すると:
$$ \dot{\Phi} = kx\dot{x} + \dot{x}\ddot{x} = \dot{x}(kx + \ddot{x}) = \dot{x}(-b\dot{x}) = -b\dot{x}^2 \le 0 $$
エネルギーは減衰によって単調減少 → 系は原点に収束。
T 理論的応用:定理1(個体収束)で $\Phi = V_0$ を選ぶのはこの型に近い。$V_0$ は「認知エネルギー」として読める。
型 2 — Bregman ダイバージェンス型
情報幾何に由来する型。確率分布の「距離」を測ることで収束を示します。
Bregman ダイバージェンス:凸関数 $F$ から派生する非対称距離。
$$ D_F(p \| q) = F(p) - F(q) - \nabla F(q) \cdot (p - q) $$
性質:$D_F(p \| q) \ge 0$、$p = q$ で 0。
例:KL ダイバージェンス(Kullback-Leibler)は $F(p) = \sum p_i \log p_i$(負のエントロピー)から派生する Bregman 型。
T 理論的応用:Bayesian 推論での事前→事後の収束。事後分布が真の分布に近づく速さを KL ダイバージェンスで測れる。前章 §「臨場感 P を上げる」を厳密化する道具。
$$ \Phi_t = D_{\mathrm{KL}}(\mu_t \| \mu_*) \quad \to 0 \text{ as } t \to \infty $$
ここで $\mu_*$ は目標分布(高 P の世界)。
型 3 — 評価関数型(コスト関数)
制御工学の最適制御に由来する型。累積コストを最小化する形で Φ を構成します。
$$ \Phi(x) = \mathbb{E}\left[ \int_0^\infty V(x(t), t)\, dt \right] $$
これは Value function(価値関数)とも呼ばれます。動的計画法・Bellman 方程式の中核。
T 理論的応用:定理1, 4, 6A すべてこの型。
- 定理1:$\Phi = V_0$
- 定理4:$\Phi = \tilde{V} = V_0 - \kappa P Q$
- 定理6A:$\Phi = \tilde{V}_E = V_0 - \kappa_+ P Q_+ E + \kappa_- P Q_-$
各定理は「評価関数の中身」が違うだけで、型は同じ。これが統一原理 B.6 の含意です。
3 型の対応関係
| 型 | 由来 | 主用途 | T 理論の代表 |
|---|---|---|---|
| エネルギー型 | 物理学 | 力学系の安定性 | 概念的基礎 |
| Bregman 型 | 情報幾何 | 確率分布の収束 | Bayesian 推論層 |
| 評価関数型 | 制御工学 | 最適制御の収束 | 定理1〜6A 全て |
実は 3 型は 互いに翻訳可能な場合が多い。エネルギー = $\frac{1}{2}\|x\|^2$ は二次形式 = Bregman の特殊例 = 評価関数の特殊例。T 理論はこの相互翻訳を 8 定理に渡って実装している、と読めます。
Φ 選択の原則
新しい問題に T 理論を適用する時、Φ 選択は次の手順で考えます。
原則 1 — 「累積されるコスト」が見えるか
問題が「短期的快楽 vs 長期的累積」のトレードオフなら、評価関数型が自然。
例:習慣化 → 短期的不快(運動など)を耐えると長期的健康改善。$\Phi = $ 累積健康悪化コスト。
原則 2 — 「到達したい分布」が見えるか
問題が「現在の信念分布から目標分布へ」の更新なら、Bregman 型(KL)が自然。
例:学習 → 現在の確率モデル $\mu_t$ を真の分布 $\mu_*$ に近づける。$\Phi = D_{\mathrm{KL}}(\mu_t \| \mu_*)$。
原則 3 — 「保存量」が見えるか
問題が物理的・力学的な保存則を持つなら、エネルギー型。
例:呼吸・歩行リズム → 周期的振る舞い。$\Phi = $ リミットサイクルからの逸脱量。
LaSalle 不変原理(弱安定の場合)
$\dot{\Phi} \le -\lambda \Phi$ が成り立たず、$\dot{\Phi} \le 0$ のみの場合、LaSalle 不変原理で 大域漸近安定を示せます:
軌道は $\{x : \dot{\Phi}(x) = 0\}$ の最大不変集合に収束する
T 理論で「指数収束(B.1)」より弱い「漸近収束」のみ示せる場合、LaSalle が代替道具になります。実装上の粘り強さ。
Khalil 古典結果からの拡張
Hassan Khalil の "Nonlinear Systems"(2002)は古典的な Lyapunov 安定性の集大成です。T 理論の独自性:
- 多世界 W への拡張:単一現実 → 可能世界の集合
- 認知系への構造写像:物理量 → 評価関数 V₀
- Self の関数主義表現:Self = (r, q, s) 三項合成 → Lyapunov の「対象」が三言語で同じ
Khalil の枠組みでは 物理状態空間 $\mathcal{X} = \mathbb{R}^n$ でしたが、T 理論では認知状態空間 + 多世界拡張で構造同型を保ったまま再定式化します。
設計の落とし穴
新しい Φ を設計する時の 典型的な失敗:
失敗 1 — 非負性が破れる
例:$\Phi(x) = V_0 - \kappa P Q$ で $\kappa P Q$ が大きすぎると $\Phi < 0$ になりうる。これは Lyapunov 関数として失格。
回避:範囲制約($P, Q$ の有界性)を仮定するか、$\Phi$ を $\max(0, V_0 - \kappa P Q)$ のように修正する。
失敗 2 — 連続微分不可能
例:$\Phi(x) = |x|$ は $x = 0$ で微分不可能。Lyapunov 解析では $C^1$ 級が標準仮定。
回避:$\Phi(x) = x^2$ のような二乗形式を使う。
失敗 3 — 減少率 $\lambda$ が出ない
$\dot{\Phi} \le 0$ までは出るが $\dot{\Phi} \le -\lambda \Phi$ が出せない。
回避:LaSalle 原理に降りる(指数 → 漸近)。または Φ を構造的に作り直す。
- 3 型(エネルギー / Bregman / 評価関数)から問題に合うものを選ぶ
- 各型は相互に翻訳可能だが、直接書きやすい型がある
- 非負性・$C^1$ 級・最小性・指数減少 の 4 条件は厳守
- B.1 補題の特殊化として、各 T 理論定理は同じ機構で動く
- 設計失敗時は LaSalle 原理に降りる、または再設計
確認
問:中心式 $\tilde{V} = V_0 - \kappa P Q$ を Lyapunov 関数として使う時、注意すべきことは何ですか?
解答を見る
非負性が保証されないことです。$\kappa P Q$ が大きくなると $\tilde{V} < 0$ になりうるため、Lyapunov 関数の条件 ① を満たさない場合があります。
T 理論ではこれを回避するため: - $P, Q$ の値域を $P \in [0, 1]$、$Q \in \{-1, +1\}$ に有界化 - $\kappa$ の上限を仮定 - もしくは $\Phi = (\tilde{V})^2$ のような二乗形式に修正
実装上は文脈で適切な修正を加えますが、素朴な $\tilde{V}$ をそのまま Lyapunov として使うのは厳密には保留が必要です。
確認
問:KL ダイバージェンスは Bregman 型の一例です。なぜ KL は対称ではない($D_{\mathrm{KL}}(p \| q) \neq D_{\mathrm{KL}}(q \| p)$)のですか?
解答を見る
KL は 凸関数 $F(p) = \sum p_i \log p_i$ から構成された Bregman 距離で、Bregman 型は一般に非対称です。直観的には:
- $D_{\mathrm{KL}}(p \| q)$:$p$ を真と仮定した時の $q$ の情報損失
- $D_{\mathrm{KL}}(q \| p)$:$q$ を真と仮定した時の $p$ の情報損失
「どちらを真と見るか」で値が変わる。距離(metric)ではなくダイバージェンス(divergence)と呼ぶのはこのため。
T 理論では「現在分布から目標分布」という非対称な操作を扱うので、非対称性はむしろ自然な特徴です。
次章への接続
3 型の Φ の中で、T 理論の各定理は 評価関数型を中心に組み立てられます。次章では 中心式 Ṽ = V₀ − κPQ がどう導出されるか — 客観 V₀ から主観 Ṽ への移行を、変分原理と臨場感操作の数理から組み立てます。