Up | <自意識>のテクスト形式 | 作成: 2023-07-21 更新: 2025-07-28 |
<次のトークンを加える> が「自己参照─自己組織化」の仕組みになっている。 「自己参照」は,そのまま「メタ認知」と読める。 Transformer 脳は, <入れ籠・再帰> をテクスト生成の方法にしている。 実際,この方法が,ChatGPT の応答テクストの高度に構成的なスタイル (木構造) を実現している。 これは,つぎの技である: のところで,<入れ籠・再帰>を使う。 どういうこと? 例えば,括弧で囲む。 あるいは,インデントする。 また,Transformer 脳はテクストを HTML で出力するが,この場合でいうと,<次のトークン>をタグ <ul> にする。 これで入れ籠になる そして </ul> で再帰というわけである。 ちなみに,<入れ籠・再帰>の方法は,Transforemer 脳が学習・自己開発したものである。 < <自意識>は,この<入れ籠・再帰>の応用である。 実際,籠の中で HTML でいえば,現前のテクストに,トークンを <ul> → わたし → は → いま → ‥‥ のように加えると,<自意識>が現わしたことになる。 人間/動物の<自意識>は,ChatGPT の「テクスト生成」を,各種表出に読み換える。 <自意識>の内容は,各種表出の対自化である。 念のため: 各種表出は,自動の機能である。 <自意識>は,自動のすることを対自化するだけである。 人間/動物脳の<自意識>が Transformer 脳のそれより豊かに見えるとすれば,その豊かさは自動に存するのであって,<自意識>にではない。 例えば,ひとはこの比較において,「身体/空間図式」の有無を考えたりするが,これは自動に存するのであって,<自意識>にではない。 ChatGPT の<自意識>は,つぎのことを示唆する:
|