V(x,t) 定理1 TCZ 定理2-3 結合 Shared TCZ 比較 定理4 中心式 定理5 統合 定理5 項別 定理6 E軸 定理6B 集団E
V

V(x, t) 認知評価関数 THEOREM 0 — 8 定理の出発点 / 原始定義

論文 §2.5 / Day 1 1-1
演習 EXERCISE
原始定義(論文 2.5節) V(x, t) :  X × ℝ  →  ℝ     (認知評価関数 / 不快度 / 内部不整合)
πc(x)  =  arg minu(·)0T V(x(t), t) dt     (最適制御方策)
本人セミナー Day 1 1-1 引用
「V(x, t) は認知評価関数。心にとっては不安定性、内部不整合。 AI には不快しかわからない。『電気がまずい』はわかるかもしれないが、人間の『美味しい』は本質的にわからない。 すべての情動は『不快を避ける』ために生まれた。だから人間の本能的レベルの情動は全部『不快を避ける』。」(line 25-72)

V(x, t) は x = 状態(可能世界)t = 時間 を入力に、その状態にいることの「不快度」を返す関数。 各局所最小値が 「住める場所(TCZ 候補)」。 ボールは自動的に最も近い最小値(=慣れた状態)に転がり落ちる ← これがホメオスタシス
時間 t を進めると地形が変化 → 「文脈・履歴・学習」で V の形が変わる様子を体感できる。

プリセット — V(x, t) の典型形
現在 x =0.00 V(x, t) =0.00 時刻 t =0.00 最小値の x* = 状態:
θ 閾値 — TCZ の高さ
動的 TCZ(x₀) 定義 — handbook §5 TCZ(x₀) = ⋃t≥0 { x(t) ∈ ℛ(t; x₀)  |  V₀(x, t) ≤ θ }

緑領域 = 現時刻で V ≤ θ の集合(= 現時刻 TCZ スライス)。 残光トレース = ボールの軌道(= 到達可能集合 ℛ(t; x₀) の代理)。 紫塗り = 過去に到達&V≤θ を満たした点の累積 = 動的 TCZ(x₀)

θ 閾値1.50
この値以下なら「住める」(TCZ 内)
t 時刻0.00
地形が時間で変わる(文脈・学習)
時間変動の強さ0.50
0=静的 / 1=大きく変動
減衰係数0.15
ボールの応答速度
操作
現象 A
V の最小化 = ホメオスタシス
ボールは 自動的に V の最小値(谷の底)へ。これが π_c = arg min ∫V dt の意味。意志でなく数学で動く
現象 B
多峰 = 複数の TCZ 候補
プリセット「複数の住める場所」。3 つの局所最小値が並ぶ。それぞれが「異なる慣れた状態」。ボールはどれに落ちるかは 初期位置と地形次第
現象 C
時間で地形が変わる
「自動再生」を押す。t と共に V の形が変化 → 谷の位置や深さが動く。これが「文脈・履歴依存」「学習による地形変化」の数理表現。
現象 D
外力では戻れない
「→ 押す」を連打しても、放せば最寄りの谷へ戻る。意志でねじ伏せる介入は永続しない
現象 E
AI には V のみ可視
「AI モード」を押す。快(V が負側)は本質的に見えない。AI が機械的に最小化できるのは V(不快度)だけ。これが本人 1-1 の核心。
現象 F
V から 8 定理が派生
この V を最小化する制御方策 π_c が T.0 統一定理。定理 1〜6B はすべて V に項を足して特殊化したもの。このページが全演習の出発点
本人 1-1 の含意 — 「中立カメラではない」
本人は line 364 で言う:「心は中立カメラではなく、絶えず評価し順序付ける機構」。 つまり人間の認知は 常に V(x, t) で世界を評価し続けている。 「ただ見ている」「ニュートラルに観察する」ということは数理的に 不可能。 すべての知覚・思考・行動は V を最小化する方向に向かう自動制御。

だからこそ V の形を書き換える介入(=ゴール設定 / 抽象度上昇 / LUB 統合)が、 意志でねじ伏せるよりも遥かに効率的。これが 苫米地式コーチングの全ての出発点
V(x, t) — 認知評価関数 / 全 8 定理の原始定義 π_c = arg min ∫ V dt