前編では「ChatGPTの裏側」にある大規模言語モデル(LLM)のイメージを説明しました。また、学習と呼んでいるものが何か?(実は、調整と呼んでいい。あるいは、関数の係数(パラメータ)を決定していると言っても良い)のイメージを説明しました。
それらのイメージを持った上で、ここでは「実際に、言葉を入れて生成させてみる実験」を行なっています。実験を通じて、いろんな気づきがあると思います。
是非、楽しんでご覧ください。また、ご自身でも、あれこれ実験を行なってみてください。
特に、昔話を生成させると、言語モデルが「海外のデータが多いんじゃないか?」と思える節がたくさんあります。そのようなことも、楽しんでもらえると、良い入門になると思います。
Share this post