Up テクスト生成主体の所在 作成: 2023-08-01
更新: 2025-08-01


    Transformer 脳がすることは,つぎの「テクスト生成」だけである:

       テクスト トークン トークン トークン ‥‥
             ↑    ↑    ↑ ‥‥  
          処理 │ 処理 │ 処理 │ ‥‥  

    したがって,「テクスト生成主体」は,<処理>に存る他ない。


    <処理>の実体は,電子回路の中の電子の挙動である。
    電子回路は,電子の挙動の場である。
    この場を,短く<場>と呼ぶことにする。

    「テクスト生成」を実現するアルゴリズムがつくられる。
    つぎに,アルゴリズムを実現する電子回路がつくられる。
    このとき,「テクスト生成」を実現するのは,<場>である。
    ここが,要点である。


    Transformer 脳は,この<場>である。
    Transformer 脳は,学習でつくられる。
    学習の目的は,はじめはカオスである<場>を,テクスト生成機能をもつものに変えること。
    この学習の内容は,パラメータ値の決定である。
    学習課題は,パラメータ値を,テクスト生成機能を実現するものに定めること。

    パラメータ値の定め方は,Transformer 脳の裁量とされる。
    そして Transformer 脳が定めていったパラメータ値は,テクスト生成がつぎの形になるようにする,というものであった:
      「生成したいテクストを生成する」
      (「テクスト生成主体が,テクストを生成する」)


    通説は,Transformer 脳が学習したものは「トークンの連想」であるとする。

    人間脳は,テクストの学習を通じて,自分を「生成したいテクストを生成する」主体として実現していく。
    そしてこのとき,「つぎにどんなトークンがくるか?」みたいな学習はしない。

    Transformer 脳も,これと同じということになる。
    「つぎにどんなトークンがくるか?」みたいな学習はしない。
    そして,「生成したいテクストを生成する」主体を実現する。

    「テクスト生成主体」は,アルゴリズムの中にこれの存在をさがす,というものではない。
    場の現象だからである。