予測は知性ではないのか

近年のLLM(大規模言語モデル)の解説で、よく見かけるのが、「LLMは次に来る単語を予測しているだけで、考えて返答してるわけではない」というものがある。しかし、LLMを少し下げて評価する「予測するだけ」という言葉については十分に考える必要がある。そもそも「予測するだけ」で何かいけないのだろうか?

LLMと人間の予測能力

もしも、予測が完璧に当たるなら文句の付けようがない。チューリングテストで言えば、予測が完璧に当たるならそれは人間と見分けがつかない存在であり、一種の知性の実現系であろう。

そもそも、私たち人間も、文章を書くときに、書きながら、その次にどんな単語を置こうとか、前後の関係からここはこの語が来るべきとか予測しながら作っていると言える。

つまり、人間もLLMも予測する機械と見做せるわけで、そこに知性があるかないかという判断は、予測の過程の途中計算に対して感じるのではないか。

人間とLLMの違い

LLMでよく使われるTransformerのような処理を人間がおこなっているとは思わない。その意味で人間とLLMは違っているだろう。ところが、途中処理が人間と違っていたとしても、それは人間とは別種の知性である可能性は否定できない。

もちろん、予測のための入力量の違いを指摘するのは大いに正しい。基本的なLLMは文章といったテキスト情報を入力して予測するのに対して、人間はその時までに見ていたニュースや、その時の空気感など、あらゆる情報が入力された上で予測することになる。だが、その弱みを指してLLMは「予測するだけ」と表現するのはあまりに言葉足らずで、LLMの入力が限定的であると指摘するべきだろう。

ただし、Transformerはマルチモーダル処理への拡張も進められているため、LLMがさまざまな入力をもとに予測する日は遠くないだろうことも添えておかなければならない。

graph TD D[複数のモーダルデータ] E[テキストデータ] G[人間の脳内処理] H[LLMのTransformer処理] I[予測結果] D --> G --> I E --> G E --> H --> I D -.-> H

結論

予測するだけと一見軽視されがちなLLMですが、予測する能力は人間の知性と共通点が多く見られます。LLMの入力は確かに限定的であるものの、技術の進化によってマルチモーダル処理が可能になり、より人間に近い知性を持つことができるでしょう。

LLMと人間の知性を比較するとき、「予測するだけ」という言葉は言葉足らずであり、予測する能力が知性の一部であることを理解する必要があります。最終的には、予測の過程や入力量の違いを理解し、それらが知性にどのように影響するかを検討することが重要です。

今後のLLMの発展に伴い、知性や意識に関する議論もさらに進展していくことでしょう。そして、人工知能と人間の知性の違いを理解し、それぞれの長所を活かすことが重要となります。予測をするとはどういうことか?それは、予測能力を持つこと自体ではなく、どのようにその能力を利用し、人間と共存できるかが問われるべきだと考えます。

コメント

タイトルとURLをコピーしました