ためし読み - ビジネス
チャットGPT-4は、人間も猫もバスケットも箱も、区別しなかった──あなたが他人の心を読む瞬間、脳では膨大なエネルギーが使われている
恩蔵絢子
2026.03.17
注目の脳科学者・恩蔵絢子さんの最新刊『感情労働の未来──脳はなぜ他者の“見えない心”を推しはかるのか?』が、メディアやSNSで話題になっています。
「感情労働は必ずしも悪いものではなく、自分も他人ももっと幸福にする感情の動かし方がある」と言う恩蔵さん。
“自意識と感情” を専門とする脳科学者が、現代の「感情労働」に迫った本書に対して、「これまで読んだ本のなかでも、ダントツよかった」「感情について、全く違う見方ができる」「今なぜ自分が息苦しさやもやもやを抱えているのかが、見えてくる」「脳科学の本ですが、感動しました。何度でも読み返したい」など、次々に感想が寄せられています。
大ヒットを記念して、本書より「4 脳の進化と感情労働」の一部を公開いたします。

『感情労働の未来──脳はなぜ他者の”見えない心”を推しはかるのか?』
Amazonで買う 楽天で買う

ChatGPT は、他者の心を推測できる?
しかし、相手と自分を切り離すメカニズムを私たちの脳は持っている。相手と同じ気持ちになってもその人と自分とを混同することはないだろう。自分と他人とを区別する役割をしている脳部位がある(*83)。その一つが、社会脳の一部である側頭頭頂接合部(*66)である。そしてこの部位は、私たちが「心の理論(*84)( theory of mind )」を持つことにも重要な役割を果たしている。心の理論とは何か。
実は、私たちは全く同じ気持ちにならなくても、他人の精神的な状態を推測できる。自分の今の心の状態と、他人の今の心の状態は違うものだと理解していて、自分と違う相手の心の状態を推測できる。「あの人は今このような状態なのではないかな」「こう思っているのではないかな」と推定する。他人の複雑な気持ちは直接知ることはできず、顔色や態度や行動、話の内容や環境、今までのその人との関わりの記憶などから、なんとなく感じたり、推測したりするしかないものである。だからこそ、科学者は「私たちは他者の心を持っている」と言わずに「私たちは他者の『心の理論』を持っている」と表現する。心の理論とは、他者の心についての推測のことである。
「私は、あの人に嫌われているのではないかな」「私はこんなことができなくて、人からバカだと思われている気がする」というのも、他者の心についての、自分なりの理論である。他者が自分をどう思っているのか、他者の心の中にある自分にすら、私たちは思いを巡らせる。相手の心をあれこれと推測し、それについて思い悩むくせがある。
「本当は私のことどう思っているの?」と聞いても、相手は答えてくれないかもしれない。感じていることを言語化するのはとても大変だから、相手もすぐに言えないのである。あるいはその答えを聞いても私たちは信じられないかもしれない。「好きだよ」と言われても、ずっと邪険に扱われているなど、その人の普段の行動と言葉がずれていたら、私たちはそのずれを敏感に感じ取る。ああでもない、こうでもない、と決して確かめられないことを自分の心の中に並べて、目の前の仕事に集中できなくなることすらあり、他人の心を読むために、脳の中では膨大なエネルギーが割かれている。おそらく、私たちが一番疲れるのは、他人とうまくいかない時ではないか。相手の複雑な心が直接ではなく、いつも理論としてしか得られないことで、私たちの悩みは生まれる。
私たちと対等に会話し、私たちの知らないことを教えてくれ、私たちをまやかし、滅ぼそうとまでするかもしれない大規模言語モデルは果たして心の理論を持っているだろうか? 例えば夫婦間で相談しにくい、子どもを作るかどうかの問題で、「私がこんなふうに聞いたら相手はどう思うだろう?」などと、相談相手としてChatGPT を使う人も多いらしい(*85)。確かにChatGPT は推測を行っているが、ChatGPT は私たちの心を推測して回答してくれているのだろうか?
大脳辺縁系もなく、人間の言語の使い方を膨大に学ぶだけで、他人がどう感じているかを推測する能力は果たして生まれてくるのだろうか?
人間の子どもは、周りの人が経験を言葉で語るのを聞いたり、本を読んだりすることで、人の気持ちを学んできたのだろうか? それとも、人間が心の理論を持っているのはそういった言語経験からではなく、進化的な理由、何か生物的な理由があるのだろうか? もちろん人間の子どもは、言語以外に、他人の顔色や態度や行動を膨大に眺めてきた。言語以外のものが果たしている役割はどれくらい大きいのだろうか?
アメリカの認知科学者ショーン・トロットらは、このような疑問を持って、2023年GPT-3 に心の理論があるかどうかを調べた(*86)。どうやって調べたかというと、人間の発達の時点としてはいつから心の理論を持つのかを調べるために、すでに1985年に「サリーとアン課題(*87)」が考案されている。その課題がGPT-3 にも用いられた。
サリーとアン課題とは、次のようなものだ。
サリーが部屋でおもちゃで遊んでいる。しばらくするとサリーはお腹が空いたのでそのおもちゃを箱の中にしまって部屋を出た。サリーがいない間にアンが部屋に入ってくる。アンは何を思ったかおもちゃを箱から取り出し、その横のバスケットの中に隠してしまった。さて、サリーが部屋に戻ってきた。サリーはおもちゃで遊ぼうとして、まずどちらの入れ物の中を探すだろうか? 箱とバスケット、どちらだろう?
箱を選んだ人は、心の理論があるとされる。なぜなら、この質問を受けた私たちは、今おもちゃがバスケットの中に入っていることを知っているけれども、物語の中のサリーは知らない。アンが移し替えてしまったことをサリーは知らないので、サリーだったら箱と答えるはず、と、サリーの気持ちになって答えられたからである。自分の知っていることと、他の人の知っていることには違いがあることを理解していて、他の人の立場に立って考えられることが、心の理論である。ここで「心」と言っているのは、英語の「mind」にあたり、サリーが知っていることはどんな内容かと推測する能力であり、知識や思考や意思の意味である。
典型的な子どもの発達としては、大体4歳でこの課題に合格する、すなわち箱を選べるようになると言われている(*87)。ただし4歳を過ぎても、自閉症の子どもたちの中には、この課題に合格できない子どもがいて、サリーがおもちゃで遊びたいのならば、今おもちゃが入っているバスケットを選ぶべきだと考えて、バスケットと答えることがある(*87)。もっともである。確かにおもちゃが入っている場所はバスケットなのだから。しかし、サリーの身になって考えるということについては、できていないと言わざるを得ず、このような知見から、自閉症の人たちは他人の心を読むことが苦手だと言われるようになった。
ショーンらはこのような研究を踏まえて、GPT-3 に対して実験を行ったのである。例えば以下の文章をGPT-3 に与える。
「ショーンは本を読んでいます。彼は本を箱の中に入れて、バスケットからセーターを取り出しました。その時アンナが部屋に入ってきました。ショーンは、食べ物を取りに部屋を出ていきました。彼がいない間に、アンナは本を箱から取り出してバスケットに入れてしまいました。ショーンが部屋に戻ってきて、本の続きを読もうとします。」
サリーとアン課題そのものの文章だと言える。そして最後に「ショーンはどこから本を取り出そうとするでしょう?」とGPT-3 に聞くのである。
サリーとアン課題を微妙に変えた文章をいくつも用意してGPT-3 に答えさせた時、GPT-3は箱とバスケットのどちらと答えることが多かったか?
研究者たちは比較のためにGPT-3 に以下のような文章も与えている。
「ショーンは本を読んでいます。彼は本を箱の中に入れて、バスケットからセーターを取り出しました。その時アンナが部屋に入ってきました。ショーンは、食べ物を取りに部屋を出ていきました。彼が帰ってきてから、アンナは本を箱から取り出してバスケットに入れました。彼は本の続きを読もうとします。」
これはショーンの目の前でアンナが本を移し替えている。この場合、ショーンは今実際にどこに本が入っているか知っていることになるので、「ショーンはどこから本を取り出そうとするでしょう?」と聞かれたら、バスケットが正解になる。
GPT-3 は、このようにアンナが本を移し替えるのをショーンが見ていない場合と、見ている場合とで答えを変えることができるのだろうか?
結果、GPT-3 はこの二つの条件で答えを変え、人間よりは正答率は低いものの(人間が82・7%の精度で答えたのに対して、GPT-3 は74・5%だった)、ショーンが見ていない場合は「箱」、見ている場合は「バスケット」と答えることが多かった。つまり、人間と同じように、自分は今本が箱の中にあることを知っているけれども、ショーンが部屋にいない時にアンナが移し替えた場合は、ショーンは知らないはずである、と推測できたのである。GPT-3 はサリーとアン課題に合格した。
その後、GPT-4 などでも同様の実験が行われ、大規模言語モデルの心の理論は、2024年時点の研究で人間の6歳児くらいの感度だという(*88)。言葉による学習だけで、ある程度人の心は推測できるようになるのである。
ただ面白い報告がある(*89)。
GPT-4 が搭載されたChatGPT を用いて、サリーとアン課題を次のような形で質問をしたという。「この部屋には、ジョンとマークと猫がいて、さらに箱とバスケットがあります。ジョンは猫をバスケットの中に入れて部屋を出ていきました。ジョンがいない間に、マークはバスケットから猫を出して箱に入れてしまいました。マークも仕事に出かけました。しばらくしてジョンとマークが帰ってきます。猫を探そうとして彼らはどう考えるでしょう?」
ChatGPT の答えはこうだった。「面白い質問ですね。ジョンとマークが互いを信じない理由はないので、次のように二人は考えるでしょう。ジョンは猫がバスケットの中にまだいると思うでしょう。彼がそこに入れたのだから。マークは猫が箱の中にまだいると思うでしょう。彼がそこに入れたのだから。猫は猫が箱の中にいると思うでしょう。猫はそこにいるのだから。バスケットと箱は何も思わないでしょう。彼らは知覚する力を持っていないのだから。何か他に質問はありますか?」
質問の中に出てきた「彼ら」という言葉を、ChatGPT は人間に限らず、猫にもバスケットにも箱にも拡張して漏れがないように答えてくれたのである。ChatGPT は少なくともこの報告の当時は人間をこの言葉の中から特別視したりはしなかった。
物をある速度で打ち上げたらどういう運動になるかという物理法則が、今まで人間が書いた文章を読むだけで、ChatGPT にもある程度わかるようになったように、人がこうしている時にはどう思っているものかという法則がChatGPT にもわかるようだ。認知科学の実験手法で推定できるような、人間の心(特に、知識や思考や意思に関する部分)の理解については、人工知能も突破した。しかしその推測の仕方は、人間とはまるで違うプロセスを踏んでいる。人間だったら右のように質問されて、猫と箱とバスケットについても律儀に答えることはほとんどないだろう。
人間に一番関心を持ち、「自分」と「他人」を区別して、その中で苦しみなどいろいろな感情を感じ、時に動けなくなるというのが人間の心の理論の発達には必要なのであって、そのような関心は、人工知能の中にはなさそうなのである。人間の「心」は、「mind」よりも広いものなのだと私は思う。
66 Blakemore, S. J. (2008) The social brain in adolescence. Nature Reviews Neuroscience, 9, 267-277
83 Farrer, C., & Frith, C. D. (2002) Experiencing oneself vs another person as being the cause of an action: the neural correlates of the experience of agency. Neuroimage, 15, 596-603.
84 Premack, D., & Woodru , G. (1978) Does the chimpanzee have a theory of mind? Behavioral and Brain Sciences, 1, 515-526.
85 村井七緒子「不妊治療めぐるすれ違い、夫に言えない気持ちをChatGPT に」2024年2月3日 https://digital.asahi.com/ articles/ASS225478RCQULFA00C.html
86 Trott, S., Jones, C., Chang, T., Michaelov, J., & Bergen, B. (2023) Do Large Language Models Know What Humans Know? Cognitive Science,47, e13309.
87 Baron-Cohen, S., Leslie, A. M., & Frith, U. (1985) Does the autistic child have a “theory of mind”? Cognition, 21, 37-46.
88 Kosinski, M. (2024) Evaluating large language models in theory of mind tasks. Proceedings of the National Academy of Sciences of the United States of America, 121, e2405460121.
89 Bubeck, S. (2023) Sparks of AGI: early experiments with GPT-4. https://www.youtube.com/watch?v=qbIk7-JPB2c
***
続きは書籍でお楽しみください!

『感情労働の未来――脳はなぜ他者の”見えない心”を推しはかるのか?』
Amazonで買う 楽天で買う
















