UTSUNOMIYA_NLP研究所

宇都宮からディープラーニングを始めとする機械学習・AI・自動化・仕組化・ツール作成についての情報を配信。python学習を始めたい方。チェックしてください。

2023年3月25日 UTSUNOMIYA_NLP研究所

 この記事は、GPT2から3への進化が飛躍的であったため、そのビジネスへの企画面を論点にし、記事を作成しております。


生成系AI、GPT2と3で大きく違う。何がAIビジネスの企画において重要なのか


 記事の対象者は以下の方を想定しております。

  • 技術的な細かい背景よりは大枠での概念を理解したい(文系の方向け)
  • GPTシリーズをポイントを抑え理解したい方

 本記事は理解の促進のため、技術的な背景を学術的に細かく説明することを目的とはせず、実ビジネスでどう使えるかを検討するための捉え方を提供するものです。
 細かい内容の理解不足による読者の損害等を補償するようなものではございません。

 結論は以下の通りです。

  • 1.GPT3以降は基本的にはファインチューニングを行う必要がないくらいに性能向上(言語の基礎理解)が進んだ。
  • 2.GPT2以前の技術(BERTやトランスフォーマーを含む)は、ファインチューニングを行わないと精度がでない。
  • 3.ファインチューニングは、目的毎に実施する必要がある。当然、目的に応じて必要なデータが形式から異なる。




GPT2とGPT3の概要

 GPT-2とGPT-3は、人工知能の一種である言語モデルです。
 これらは、テキスト生成、文章の翻訳、要約、質問応答など、様々な自然言語処理タスクに使用されます。GPT-2は、2019年に発表されたstaticAI社の言語モデルで、当時の最先端技術であるBERTを上回る性能を持っていました。
 そして、その後の2020年には、GPT-2よりもはるかに大きな規模の言語モデルであるGPT-3が発表されました。

 GPT-3は、当時最大の言語モデルであり、トレーニングデータに大量のWebテキストを使用しているため、非常に高い精度で自然言語処理タスクを実行することができます。GPT-2と比較して、GPT-3の最大の違いは、その規模の大きさにあります。GPT-3は、1つのモデルで、約1750億のパラメータを持っています。これは、GPT-2のパラメータ数の約100倍に相当します。

 この規模の大きなモデルを持つことにより、GPT-3は、言語処理の分野において革新的な成果を達成しました。たとえば、文章の翻訳では、翻訳元と翻訳先の言語を指定するだけで、自動的に翻訳結果を生成することができます。
 また、文章の自動生成でも、人間のような自然な文章を生成することができます。さらに、GPT-3は、大量のデータを使用することにより、質問応答の精度も向上させました。これは、GPT-3が、異なる言語処理タスクを解決するために、多数の異なるモデルを統合することができるためです。
 これにより、多様なタスクに対して高い汎用性を持ち、単一のモデルで多数のタスクを解決することができます。

 題材によっては、GPT-3の性能が低下する場合があります。たとえば、科学技術や医療のような専門分野の文章を生成する場合、GPT-3は正確な情報を生成することができないことがあります。また、GPT-3は、トレーニングに使用されたデータセットの偏りや、ステレオタイプな言語表現を含む可能性があります。

 さらに、GPT-3は、非常に高価なハードウェアや大量のデータを必要とするため、一般的に研究機関や大企業のみが利用できます。また、GPT-3は、プライバシーや偏見の問題にも直面しています。大量の個人情報が必要なトレーニングデータを使用しているため、GPT-3が生成するテキストには、性別や人種などの偏見が含まれる可能性があります。そのため、GPT-3の使用には、プライバシーと偏見の問題を考慮する必要があります。


ビジネスユース的な観点では

 GPT-2とGPT-3の違いは、規模だけではありません。GPT-3は、より多様で複雑なタスクにも対応することができます。そしてこの点が革新的な違いがあります。ある種のルビコン川を隔てた境目と捉えていいかもしれません。

 AIをビジネス活用する際に考えるべきこととしては、GPT3を使うか、GPT2以前の技術を使うかによってアプローチが大きくことなります。それはGPT2以前の技術(BERTやトランスフォーマーを含む)は、1000サンプル程度のデータ量でファインチューニングを行いタスクを解くことを前提にしている点です。しかも、質疑応答、文章分類、要約、等のタスクの目的に応じてチューニング用のデータを用意する必要があります。

 GPT3が使えれば話が早いですが、モデルで一般公開されているものがなく、また仮にモデルを入手できたとしてもGPT3 で1000万円程度のマシンが必要あると言われております。API形式で料金を払い利用するということがメジャーな利用方法です。一方、システム投資を割り切れるのであれば、企業であればGPT3くらいまでなら、予算化し自社内で構える選択肢もあるように思います。
 企業が言語モデルを活用する際には、かならず企業が持つ機密情報の問題が付きまといます。APIでそういった情報がやりとりされてしまうのは、現時点ではリスクが大きすぎるのではないでしょうか。


最後に

 GPT-3は、より大規模で多様なタスクに対応することができ、自然言語処理分野において大きな進歩をもたらしました。
 その性能には限界があり、ChartGPTやGPT4では大幅に解消されることになりますが、プライバシーや偏見等の問題もあります。
 今後も、より進化した言語モデルの開発が進むことが期待されます。

©dhipithi Inc All rights reserved.