言語モデルに、推論をそれなりに明示的に与えるやり方を考えてみます。
- ◯
- 背景
AIの言語モデルが大規模になって、対話型AIも、とてもスムーズな会話ができるようになりました。[※1]
とくに面白いのは、<推論>のようなことも、それなりにできるようになったことですーーたとえばChatGPT のGPT-3.5 がもつ英語の言語では、「おかあさんのおかあさんはおばあちゃん」という言葉のルールが埋め込まれてしまったようで、それぞれのおかあさんの情報を与えて「〜のおばあちゃんは?」と聞くと、ちゃんと答えてくれます。[※2]
- ◯
- 問題
とはいえ、ある言語モデルにどのような推論ができるのかは、じっさいに試してみないと分かりません。そもそも学習によって埋め込こまれなかったルールは、とうぜんながら利用できません。
- ◯
- 主題
ここでは言語モデルに、推論をそれなりに明示的に与えるやり方を考えてみます。
- ※1
- 最近の言語モデルの成果は、ほぼモデルのパラメータ数の増大がもたらしています。
- ※2
- ChatGPT のGPT-4 では、日本語にもそのルールが埋め込まれてしまったみたいですね。
- ◯
- ChatGPT (GPT-3.5) にPrologで関係のルールを教えてみる:GPT-3.5, Prolog (SWI-Prolog)
- ◯
- ChatGPT (GPT-4) にPrologで関係のルールを教えてみる:GPT-4, Prolog (SWI-Prolog)