人間の賢さが物理的な身体にあるのか、言語ゲームの側にあるのか、という問いに関して「物理的身体を持たないが言語ゲームが可能な存在」が作られて割と賢いことがわかったことによって実験科学的に答えが出つつあるの巻 https://t.co/V5WFjtPcf5
— NISHIO Hirokazu (@nishio) 2026年3月1日
このポストがおもしろかった。何を言っているかというと、知性とか賢さは人間の中身ではなく言語の使用および、言語を成り立たせている規則や作法のほうにあるんじゃないの?という話。ウィトゲンシュタインの言語ゲーム的な話題であり、彼が生きてたらほくそ笑むんじゃないかな。
LLMおよびChatGPTたちがなぜ賢く見えるかの答えがここにある。人間はそれ自体で賢いのではなく、言語やルールの束を杖にして賢さが光る。そして、そのルールの束を扱う主体が肉体を持った人間である必要はなかろう、という見通しが立ちつつある(記号接地問題はあるにせよ)。LLMは厳密な意味で論理的な推論をしているわけではないが、巨大なデータを集めて統計処理をしたらよく使われる推論の型や明示的・暗黙的な規範のパターンは取り込めてしまう。とりあえずたくさんのデータをぶっ込んで、賢い人たちが設計した学習を回すと、ルールの束を再現するデータがモデルの内部に構築されてしまった、という状況。
昔から、本を読み書きする学者や、法を操る法曹、官僚は賢いという権威主義があったが、あの直観は正しかったのだろう。言語、記号、ルールをよく知り、うまく使えるものが賢いのである。
しかし、ChatGPTたち AIにはどこか抜けてるところもある。そんな細かいところ気にせんでもええがな、という塩梅の調整が下手くそだ。空気読めない、と言ってもいいだろう。これはフレーム問題に似たことが起きているのだと思う。
フレーム問題とは、ざっくり言えば「無限に関係しうる情報の中から、今この場で関係あるものだけを選び、関係ないものを捨てるのが難しい」という話だ。身体を持ったロボットがいたとして彼が「背中に💣があるかも」という可能性をいちいち全部検討してしまい、まともに動けなくなるのでは、という古典的な思考実験。実際、人間が日常で平然と何も気にしないで済ませている根拠は特にあるわけではない。バイアスかもしれない。平和だと思われた国にミサイルが降ってくる昨今。
そんなこと気にせんでもええやん、本質的な話しよ?という判断ができないのは、判断に使うルールたちの取捨選択が苦手だからだ。いま問題になっている文脈において、その話は関係ない、そのルールは持ち出さなくて良いという切り捨て。たしかに一部の賢いモデルにこと細かく状況を説明したら正しくルールセットを選んでくれるが、人間ならそこはもうちょっとうまくやる。
……いや、本当にそうだろうか。人間でも、そんなこと今言わなくてええやん、をやってしまう人はいるじゃないか。人間でも難しい問題なのかもしれない。空気が読めない、コミュ障だ、という非難は社会にありふれている。
逆に、こここそが人間の仕事として残ってくるところなのだろう。いわゆる責任を取る仕事。私はソフトウェアエンジニアだが、さいきんはプログラミングもコードレビューもAIに任せてチェックするだけの場面が増えている。人間はAIのやることを軌道修正し、そして最終的にトラブルが起きたら責任を取る。この方向づけはまさに、どのルール、価値観を優先してどれをどうでもいいとするか、という取捨選択になってくる。これが人間に残っている仕事である。
一方で、言語のルール運用の定番からずらしていくのが芸術、文学のやり方である。新しい読み方、言葉の使い方を提示していく。ここに身体性が必要で、リズムが絡むだろうというのが千葉雅也のセンスの哲学で言われていたことだと思う。身体があって「うーんどうしてもこの緑色でリズムを刻みたいな」というマティスみたいなロボットおよびAIが出てこない限りは、この領域については人間の自由が残るだろう。