The Journey of Open AI GPT models
OpenAI GPT モデルの旅
Priya Shree
GPT1, 2, and 3
GPT, Radford (2019)
OpenAI による GPT (Generative Pre-trained Transformer) モデルは,非常に強力な言語モデルの導入により,自然言語処理 (NLP) コミュニティに旋風を巻き起こしている。 これらのモデルは,質問応答,テキスト含意,テキスト要約など,様々な NLP 課題を教師付き訓練なしで実行することができる。 これらの言語モデルは,課題を理解するためにほとんど例を必要とせず,教師あり方式で学習した最先端のモデルと同等かそれ以上の性能を発揮する。 この記事では,これらのモデルの歩みを取り上げ 2 年の間にどのように進化してきたかを理解する。 ここでは,以下のトピックを取り上げる予定である。
- GPT-1 論文 (Improving Language Understanding by Generative Pre-training) に関する議論。
- GPT-2 論文 (Language Models are unsupervised multitask learners) とその後の GPT-1 からの改良点についての議論。
- GPT-3 論文 (Language models are few shot learners) とその改良による,これまでの NLP の中で最も強力なモデルの一つについての議論。
この記事は NLP の用語とトランスフォーマーのアーキテクチャの基本を熟知していることを前提としている。
まずは,これらの論文を 1 つ 1 つ理解することから始めましょう。 この旅をより理解しやすくするために,各論文は 4 節に分けた: 論文で議論された目的と概念,使用したデータセット,モデルのアーキテクチャと実装の詳細,そして性能評価である。
GPT-1 生成モデルによる事前訓練による言語理解の向上 Improving Language Understanding by Generative Pre-training
本発表以前は,最新の自然言語処理モデルの多くは,教師あり学習を用いて,感情分類や含意関係などの特定の課題に特化して学習されていた。 しかし,教師あり学習には 2 つの大きな限界がある。
- 特定の課題を学習するために大量の注釈付きデータが必要である。だが,これは容易に入手できないことが多い。
- 学習させた課題以外の課題に対して汎化できない。
本論文で取り上げたコンセプトとアプローチについて,順を追って説明する。
(GPT-1) 1. 学習目標とコンセプト:
この NLP 課題のための半教師付き学習 (教師なし事前学習と教師ありによる微調整) は,以下の 3 つの要素からなる。
- a: Unsupervised language Modeling
- b: Supervised Fine-Turning
- c: Task Specific Input Transformations:
a. 教師なし言語モデリング (事前学習)。教師なし学習では,標準的な言語モデルの目的関数を使用する。
\[L_ {1}(T)=\sum_{i}\log P(t_ {i}\vert t_ {i-k},\ldots, t_ {i-1};\theta)\tag{i}\]ここで $T$ は教師なしデータ${t_ {1},\ldots,t_ {n}}$ トークン集合,$k$ はコンテキスト窓サイズ,$\theta$ は確率的勾配降下を用いて学習したニューラルネットワークのパラメータである。
b. 教師あり微調整: この部分は,特徴量やトークン $x_ {1},\ldots,x_ {n}$ が与えられたときに,ラベル $y$ を観測する尤度を最大化することを目的とした。
\[L_ {2}(C)=\sum_ {x,y}\log P(y\vert x_ {1},\ldots,x_ {n})\tag{ii}\]ここで $C$ は学習例で構成されるラベル付きデータセットである。 著者らは式 (ii) で示される目的関数を単純に最大化するのではなく,より良い汎化,より速い収束を得るために,教師ありの微調整のための補助学習目的を追加した。 修正された学習目的は以下のように記述される。
\[L_ {3}(C) = L_ {2}(C) + \lambda L_ {1}(C)\tag{iii}\]ここで $L_ {1}(C)$ は言語モデルの学習の補助目的関数,$\lambda$ はこの補助目的に与える重みである。 $\lambda=0.5$ であった。 教師あり微調整は,下流課題のタスクラベルを得るために,変換器モデルに線形層とソフトマックス層を追加することで実現された。
c. 課題固有の入力変換: 微調整の際にモデルのアーキテクチャの変更を最小限にするため,特定の下流課題への入力を順序付き系列に変換した。 トークンは以下のように並べ替えられた。
- 入力系列にスタートトークンとエンドトークンを追加した。
- 例題の異なる部分の間にデリミタートークンを追加し,入力が順番に並ぶようにした。 質問応答,多肢選択課題などの課題では,各事例に対して複数の系列が送信された。 例えば,質問応答課題では,文脈,質問,答えの系列から構成される学習例である。
(GPT-1) 2. データセット
GPT-1 では,言語モデルの学習に BooksCorpus データセットを使用した。 BooksCorpus には約 7000 冊の未発表の書籍があり,未発表のデータで言語モデルを学習させることができた。 このデータは,下流課題のテストセットにはほとんど含まれていない。 また,このコーパスには連続したテキストが大量に含まれているため,広い範囲の依存関係を学習することができる。
(GPT-1) 3. モデルのアーキテクチャと実装の詳細
GPT-1 では,言語モデルの学習にマスク化された自己注意を持つ 12 層の符号化器のみのトランスフォーマー構造を用いた。 このモデルのアーキテクチャは,トランスフォーマーに関する原著論文に記載されているものとほぼ同じ。 マスク化は,言語モデルが現在の単語の右側にある後続の単語にアクセスできないようにするという言語モデルの目的を達成するのに役立ちった。
(GPT-1) 3.1 教師なし学習
- Byte Pair Encoding (BPE) を使用し 40,000 マージを行った。
- トークンの単語埋め込みに 768 次元の状態を使用。位置の埋め込みも学習された。
- 各自己注意層には 12 個の注意ヘッドを持つ 12 層モデルを使用。
- 位置情報フィードフォワード層には 3072 次元の状態を用いた。
- Adam 最適化関数を使用し,学習率は $2.5e-4$ とした。
- 正則化には,注意,残差,埋め込みのドロップアウトを用い,ドロップアウト率は 0.1。 また,非バイアス重みのために L2 正則化の修正版も使用された。
- 活性化関数として GELU を用いた。
- サイズ 64,配列長 512 のミニバッチを 100 エポック学習させた。 モデルのパラメータは全部で 117 Mであった。
(GPT-1) 3.2 教師あり微調整
- 教師あり微調整は,ほとんどの下流課題で 3 エポックと短い時間で完了した。 これは,モデルが事前学習ですでに言語について多くのことを学んでいたことを示している。そのため,最小限の微調整で十分であったと思われる。
- 教師なし事前学習で得られたハイパーパラメータのほとんどが微調整に使用された。
(GPT-1) 4. Performance and Summary:
-
GPT-1 は 12 課題中 9 個課題で,特別に学習させた教師付き SOTA モデルより優れた性能を示した。
-
このモデルのもう一つの重要な成果は,様々な課題において適切なゼロ撃学習の性能を実現したことである。 この論文では,事前学習により,質疑応答,スキーマ解決,感情分析などの様々な NLP 課題で,モデルがゼロ撃学習の性能を向上させたことを実証している。
-
GPT-1 では,言語モデルが効果的な事前学習の対象であり,モデルの汎化を助けることができることを証明した。 このアーキテクチャは転移学習を促進し,わずかな微調整で様々な NLP 課題を実行することができる。 このモデルは生成的な事前学習の威力を示し,より大きなデータセットとより多くのパラメータでこの威力を発揮できる他のモデルへの道を開くものであった。
GPT-2 言語モデルは教師なしマルチタスク学習器 Language Models are unsupervised multitask learners
GPT-2 モデルの開発は,より大きなデータセットを使い,より多くのパラメータを追加して,さらに強力な言語モデルを学習させるという点が主であった。 ここでは,GPT-2 モデルの重要な開発内容と,論文で議論された概念について見ていく。
(GPT-2) 1. 学習目標とコンセプト
以下は,論文で議論された,自然言語処理の文脈における 2 つの重要な概念である。
-
課題条件付け: 言語モデルの学習目的は $P(\text{output}\vert\text{input})$ で定式化されることを見てきた。しかし GPT-2 では,教師なしモデルを用いて複数課題を学習することを目的とした。そのため,学習目標を $P(\text{output}\vert\text{ input};\text{task})$ に変更する必要がある。これは課題条件付ングと呼ばれ,同じ入力に対して課題が異なればモデルも異なる出力をすることが期待される。モデルによっては課題条件付けをアーキテクチャレベルで実装し,モデルに入力と課題の両方が与えられる。言語モデルの場合,出力,入力,課題はすべて自然言語の系列であった。したがって,言語モデルの課題条件付けは,モデルに課題を実行させるための事例や自然言語の指示を与えることによって行われる。課題条件付けは,次に説明するゼロ撃学習課題の転移学習の基礎を形成する。 - ゼロ撃学習とゼロ撃転移学習: GPT-2 の興味深い機能として,ゼロ撃学習課題転送がある。 ゼロ撃学習は,ゼロ撃学習の転移学習の特殊な場合で,事例が全く提供されず,与えられた命令に基づいてモデルが課題を理解するものである。GPT-2 では,微調整のために GPT-1 で行った配列の組み替えの代わりに,モデルが課題の性質を理解して答えを出すことを期待する形式で入力を行った。これは,ゼロ撃課題の転送学習の動作をエミュレートするために行われた。例えば,英仏翻訳課題では,モデルに英文の後に仏語とプロンプト(:)が与えられた。モデルはこれが翻訳課題であることを理解し,英文のフランス語の対訳を与えることになっていた。
(GPT-2) 2. データセット
広範かつ良質なデータセットを作成するために,著者らは Redditプラットフォームをスクレイピングし,高アップボーティングの記事のアウトバウンドリンクからデータを取得した。 その結果 WebText と呼ばれるデータセットには 800 万以上のドキュメントから 40GBのテキストデータが含まれていた。 このデータセットは GPT-2 の学習に使用され GPT-1 の学習に使用された Book Corpus データセットと比較して巨大なデータセットであった。 多くのテストセットには Wikipedia の記事が含まれているため WebText から Wikipedia の記事をすべて削除した。
(GPT-2) 3. モデル・アーキテクチャと実装の詳細
GPT-2 は 15億 のパラメータを持っていた。 これは GPT-1 (1億1700万パラメータ) の 10 倍である。GPT-1 との主な相違点は以下の通り。
- GPT-2 は 48 層で,単語埋め込みに 1600 次元のベクトルを使用。
- より大きな語彙 (50,257個) を用いた。
- バッチサイズを 512,文脈窓幅を 1024 とした。
- 層正規化を各下位ブロックの入力に移動し,最終自己認識ブロックの後に層正規化を追加した。
- 初期化時に残差層の重みを $1/\sqrt{N}$ ($N$ は残差層の数) でスケーリング。
著者らは 117M (GPT-1 と同じ),345 M, 762 M,1.5 B (GPT-2) のパラメータで 4 つの言語モデルを学習させた。 その結果,GPT-1 よりも GPT-2 の方が錯綜度が低いことがわかった。 このことから,同一データセットに対する言語モデルの錯綜度は,パラメータ数の増加とともに減少することが確認された。 また,すべての下流課題において,パラメータ数の多いモデルの方が性能が高いことがわかった。
(GPT-2) 4. 性能とまとめ
GPT-2 は,読解,要約,翻訳,質問応答などの下流課題のいくつかのデータセットで評価された。 それらの課題と GPT-2 の性能について詳しく見ていく。
- GPT-2 は 8 つの言語モデリングデータセットのうち 7 つにおいて,ゼロ撃学習設定で当時の SOTA を向上させた。
- Children’s Book Dataset は,名詞,前置詞,名前付きエンティティなどの単語のカテゴリに関する言語モデルの性能を評価するものであった。GPT-2 は,普通名詞と名前付き実体の認識において,最先端の精度を約 7% 向上させた。
- LAMBADA データセットは,長距離依存関係の識別と文末単語の予測におけるモデルの性能を評価するものであった。GPT-2 は,錯綜度 を 99.8 から 8.6 に減少させ,精度を大幅に向上させた。
- GPT-2 は,ゼロ撃学習環境における読解課題において,ベースライン 4 モデルのうち 3 モデルを上回る性能を示した。
- フランス語から英語への翻訳課題において,GPT-2 は教師無しモデルよりも優れた性能を示したが,最新の教師無しモデルを上回る性能は得られなかった。
- テキスト要約課題において GPT-2 は多くの教師無しモデルより高い性能を示したが,最新の教師無しモデルより低い性能であった。 GPT-2 は,ゼロ撃学習でテストした 8 つの言語モデリングデータセットのうち7 つで,最先端の結果を得ることができた。 GPT-2 では,より大きなデータセットで学習し,より多くのパラメータを持つことで,言語モデルの課題理解能力が向上し,ゼロ撃学習設定において多くの課題で SOTA を上回ることを示した。 この論文では,モデルの容量が増えるにつれて,性能が対数線形的に増加すると述べている。また,言語モデルの錯綜度の低下は飽和を示さず,パラメータ数の増加とともに低下し続けることが確認された。 実は GPT-2 は WebText データセットへの適合度が低く,より多くの時間をかけて学習すれば,さらに錯綜度を下げることができたと考えられる。 このことから GPT-2 のモデルサイズは限界ではなく,さらに大きな言語モデルを構築することで錯綜度を減らし、言語モデルの自然言語理解能力を向上させることができることが分かった。
GPT-3 言語モデルは少数撃学習機 Language models are few shot learners
Open AI は課題を理解し実行するために微調整を必要とせず,わずかなデモンストレーションで済む,非常に強力な言語モデルの構築を目指し,1750 億のパラメータを持つ GPT-3 モデルを構築した。 このモデルは,Microsoft の強力な Turing NLG 言語モデルの 10 倍,GPT-2 の 100倍 のパラメータを備えていた。 GPT-3 は多くのパラメータと豊富なデータセットで学習されているため,ゼロ撃および少数撃の設定において,下流の NLP 課題で優れた性能を発揮する。 また,大容量であるため,人間が書いた記事と見分けがつかないような記事を書く能力も持っている。 また,数字の合計,SQL クエリやコードの記述,文中の単語のスクランブル解除,課題の自然言語記述による React や JavaScript コードの記述など,明示的に学習させていない課題をオンザフライで実行することができる。 GPT-3 論文で言及された概念と開発について,このモデルの広範な影響と限界とともに理解しよう。
(GPT-3) 1. 学習目標と概念
この論文で取り上げた 2 つの概念について説明する
- インコンテキスト学習: 大規模言語モデルは,学習させたテキストデータを用いてパターン認識などの能力を身につける。 言語モデルは文脈から次単語を予測するという第一の目的を学習する一方で,言語モデリング課題の損失を最小化するのに役立つデータのパターンを認識し始める。 その後,この能力はゼロ撃課題転送の際にモデルを助ける。言語モデルは,いくつかの例や,何をすべきかの説明が提示されると,その例のパターンを,過去に類似のデータについて学習したものと照合し,その知識を用いて課題を実行する。 これは大規模言語モデルの強力な能力であり,モデルのパラメータ数が増えるにつれて増加する。
- 少数撃学習,一撃げ句集,ゼロ撃学習の設定: 先に述べたように,少数撃,一撃,ゼロ撃設定は,ゼロ撃課題の転移学習の特殊なケースである。 数撃ちゃ当たるの設定では,モデルには課題の説明と,モデルの文脈窓に適合する数の例が提供される。 一撃学習設定では,モデルは正確に 1 つの事例を提供され,ゼロ撃学習設定では,事例は提供されない。 モデルの容量が大きくなるにつれて,少数撃,一撃,ゼロ撃学習の能力も向上する。
(GPT-3) 2. データセット
GPT-3 は 5 つのコーパスを組み合わせて学習させた。それぞれのコーパスには一定の重みが設定されている。高品質なデータセットはより頻繁にサンプリングされ,モデルはそれらに対して 1 回以上のエポックについて学習された。使用したデータセットは Common Crawl, WebText2, Books1, Books2, Wikipedia の 5 つであった。
(GPT-3) 3. モデルおよび実装の詳細
GPT-3 のアーキテクチャは GPT-2 と同じである。GPT-2 との主な相違点は以下の通り:
- GPT-3 は 96 層で ,各層に 96 個の注意ヘッドを持つ。
- 単語埋め込みのサイズが 1600 から 12888 に増加。
- 文脈窓幅サイズを GPT-2 の1 024 から GPT-3 の 2048 トークンに変更。
- Adam optimiser を使用し $\beta _ {1}=0.9,\beta_ {2}=0.95,\epsilon=10^(-8)$ とした。
- 密な注意パターンと局所的にバンド化された疎な注意パターンを交互に使用。
(GPT-3) 4. 性能とまとめ
GPT-3 は,多くの言語モデリングと NLP のデータセットで評価された。 LAMBADA や Penn Tree Bank のような言語モデリングデータセットにおいて GPT-3 は少数撃またはゼロ撃学習の設定で SOTA (最先端技術) より優れた性能を発揮した。 その他のデータセットでは GPT-3 は最先端技術に勝ることはできなかった。だが,ゼロ撃学習では SOTA (最先端技術の) 性能を向上させることができた。 GPT-3 は,閉じた本の質問応答,スキーマ解決,翻訳などの自然言語処理課題においても,多くの場合,SOTA に勝るか,微調整したモデルに匹敵する性能を発揮することができた。 ほとんどの課題で GPT-3 は 1 撃学習やゼロ撃学習に比べ,少数撃学習設定でより良い性能を発揮した。
従来の自然言語処理課題での評価とは別に,算術加算,単語のスクランブル解除,ニュース記事生成,新規単語の学習と使用などの合成課題でもモデルを評価した。 これらの課題においても,パラメータ数の増加とともに性能が向上し,1 撃やゼロ撃よりも少数撃学習の設定の方が,モデルの性能が向上した。
(GPT-3) 5. 限界と広範な影響
この論文では GPT-3 モデルのいくつかの弱点と,改善の余地がある分野について論じている。ここでは,それらを要約してみる。
- GPT-3 は高品質のテキストを生成することができるが,長い文章を作成する際に首尾一貫性を失い始め,テキスト系列を何度も繰り返してしまうことがある。また,自然言語推論 (ある文が他の文を含意しているかどうかを判断する) ,空欄補充,いくつかの読解課題などでは,GPT-3 はあまり良い成績を示さない。この論文では,これらの限界の原因として GPT モデルの一方向性を挙げ,これらの問題を克服するために,このスケールで双方向モデルを訓練することを提案しています。
- また GPT-3 の一般的な言語モデリング目的は,各トークンを均等に重み付けし,課題や目標に沿ったトークンの予測という概念を欠いていることも指摘されている。この対策として,論文では,学習目的関数の拡張,強化学習によるモデルの微調整,他のモダリティの追加などのアプローチを提案している。
- GPT-3 の他の限界としては,その重いアーキテクチャによる複雑で高価な推論,言語とモデルによって生成された結果の解釈可能性の低さ,モデルがその少数撃学習動作を達成するのに役立つものについての不確実性などがある。
- これらの制約に加え GPT-3 の人間らしいテキスト生成機能は,フィッシング,スパム,誤報の拡散,その他の不正行為に悪用される可能性がある。また,GPT-3 が生成するテキストは,学習させた言語のバイアスを含んでいる。また GPT-3 が生成する文章には,性別,民族,人種,宗教などのバイアスがかかっている可能性がある。そのため,このようなモデルは慎重に使用し,使用前に生成されたテキストをモニターすることが非常に重要になる。
(GPT 全般) 用語集
- 補助学習目的関数 (Auxiliary Learning Objective) とは,主学習目的関数と一緒に学習することで,モデルの汎用性を高め,性能を向上させるための追加学習目的または課題のこと。 この 論文 では,この概念について詳しく説明している。
- マスク化 Masking とは,文中の単語を削除したり,他のダミートークンで置き換えたりして,学習時にモデルがそれらの単語にアクセスできないようにすること。
- バイトペアエンコーディング : データ圧縮技術の 1つ。頻繁に出現する連続したバイト対を,データには存在しないバイトに置き換えることでデータを圧縮する技術。元データを復元するには,置き換えられたバイトの写像を含むテーブルを使用する。 このブログ では BPE について詳しく説明している。
- ゼロショット学習: ある課題を実行する際に,過去にその課題を実行したことがないモデルの能力である。 ゼロ撃学習では勾配の更新は行われず,モデルは例題を見ることなく課題を理解することになっている。
- ゼロ撃課題転送またはメタ学習は,モデルにほとんど例を示さず,課題を理解させる設定を指す。ゼロ撃という言葉は,勾配更新が行われないことに由来する。 モデルは例題と指示に基づいて課題を理解することになっている。
- 言語モデルの標準的な評価指標は錯綜度(Perplexity) である。 パープレックスとは,テストセットの逆確率をテストセットの単語数で正規化したものである。 パープレックス値が低い言語モデルは,高い言語モデルよりも優れているとされる。 パープレックスについての詳しい説明は こちらのブログ を参照。