MkItYs

MkItYs > 心身 / 技術 / 文化 / 社会 / 倫理 > 

images

まとめ:大規模言語モデルの推論のためのメモリ:ChatGPT, Prolog

images

言語モデルに、推論をそれなりに明示的に与えるやり方を考えてみます。

背景

AIの言語モデルが大規模になって、対話型AIも、とてもスムーズな会話ができるようになりました。[※1]

とくに面白いのは、<推論>のようなことも、それなりにできるようになったことですーーたとえばChatGPT のGPT-3.5 がもつ英語の言語では、「おかあさんのおかあさんはおばあちゃん」という言葉のルールが埋め込まれてしまったようで、それぞれのおかあさんの情報を与えて「〜のおばあちゃんは?」と聞くと、ちゃんと答えてくれます。[※2]

問題

とはいえ、ある言語モデルにどのような推論ができるのかは、じっさいに試してみないと分かりません。そもそも学習によって埋め込こまれなかったルールは、とうぜんながら利用できません。

主題

ここでは言語モデルに、推論をそれなりに明示的に与えるやり方を考えてみます。


※1
最近の言語モデルの成果は、ほぼモデルのパラメータ数の増大がもたらしています。
※2
ChatGPT のGPT-4 では、日本語にもそのルールが埋め込まれてしまったみたいですね。
ChatGPT (GPT-3.5) にPrologで関係のルールを教えてみる:GPT-3.5, Prolog (SWI-Prolog)

ChatGPT (GPT-4) にPrologで関係のルールを教えてみる:GPT-4, Prolog (SWI-Prolog)