地域型OTAとChatGPT

ChatGPTが話題です。テクノロジー企業では今、一番の関心事と思われます。

Web3.0は技術のわからないビジョナリー、インフルエンサー、マーケターが喧伝していて、うさんくささが拭えません(より率直に言えば彼らの利益のために誇張・歪曲されているのが実態)が、ChatGPTは本物です。業界のルールを一変させたAWSのクラウドに続いて、この業界・世界を変えてしまうことが確実視されています。

ChatGPTはMicrosoftが100億ドルの資本提供に成功しました。Bing、OS・Officeスイート・開発ツールに搭載するのが確実です。この動きに巨人Googleも黙っていません。そもそもChatGPTの基盤技術である「Transformer」(wikipedia)を開発したのはGoogleです。まもなく対抗措置が発表されるようです。

Google Calls In Larry Page and Sergey Brin to Tackle ChatGPT and A.I. Chatbots – The New York Times

競争によって、ChatGPTのような「凄いAI」はより洗練されていき、安く利用し続けることが期待できます。10年後には様々な業界のルールやそこで働く人に求められるスキルが一変しているでしょう。

この変化を「脅威」とするか?それとも「機会」とするか?はこれからの取組み次第です。変化を受け入れない人には「脅威(=淘汰される)」となります。弊社はこの一大変化に活用します。ワクワクしてます。

ちいプラとChatGPT

NYANGOが提供する「ちいプラ」は、地域特化型のOTA(Online Travel Agent/オンライン旅行代理店)を実現するためのシステムです。ChatGPTをどのように活用できるでしょうか?

まっさきに考えられるのは、ChatGPTに「特定地域の観光情報(たとえば名所、宿泊施設、体験プログラム、口コミ、人物)を学習させて、一般の利用者からの質問に回答してもらうこと」です。(ちなみにChatGPTはこの手の情報は全く学習していません。そして「わかりません」ではなく、持ち前の高度な文書生成能力を使って創作~嘘~します。)

このアイデアについてChatGPTに聞いてみました。

ChatGPTに特定地域の観光情報(たとえば名所、宿泊施設、体験プログラム)を学習させて、一般の人からの質問に回答してもらうことはできますか?

はい、特定の地域の観光情報を学習させることができます。ただし、学習データが十分であることや、モデルのパラメータが適切に調整されていることが必要です。また、一般の人からの質問に対する回答の精度は、学習データの質や、質問内容によって異なります。

「学習データが充分」ということですが、具体的にはどれくらいのテキストデータが必要でしょうか?

学習データが充分というのは、目的に応じて変わります。観光情報に関する学習データが充分ならば、その地域に関する情報を提供するために必要な情報が含まれていることが望ましいです。

一般的に、GPT-3やその他の大規模な言語モデルは、数百万から数千万のテキストデータを学習することで、高い精度を得ることができます。しかし、少量のデータでも学習が可能ですが、その場合は精度は落ちます。

観光情報に関して言えば、その地域についての観光案内、観光スポットの紹介、体験プログラム、宿泊施設などに関する情報が含まれた、数千から数万のテキストデータがあれば、質問に対する回答の精度が良くなると考えられます。

「データの質」について具体的に教えてください。特に「好ましくない」データについて把握したいです。

データの質は、学習結果に大きく影響します。好ましくないデータとは、以下のようなものが挙げられます。

  • 不適切な内容:例えば、嫌がらせや差別的なコメントなど。
  • 誤った情報:正確性が低い、古い、あるいは完全に間違った情報。
  • 質が悪い:スペルミスや文法の誤りが多い、文章の構造が乱雑な、あるいは意味不明なテキスト。

好ましくないデータを学習させると、モデルはそれらを学習し、それらを反映した回答を返す可能性があります。そのため、学習データを選定する際には、情報の正確性、適切な内容、質の高い文章などに注意することが重要です。

アイデアとしては悪くなさそうです。ただ、小さな自治体(例えば南三陸町であれば人口は12,000人足らずで宿泊施設数の数も20程度です)に「数千から数万のテキストデータ」があるのかどうか・・・。

さらに一部の情報は時々刻々と変化していきます。データの追加・更新は可能でしょうか?

古くなったデータを更新(上書き)するときは、新しいデータだけを追加で学習してもらえばよいですか? 例えば営業時間の変更を更新したい場合は、どうしますか?

新しいデータだけを追加して学習することで、古いデータを上書きすることはできますが、それだけでは古いデータが完全に消えるわけではありません。

GPT-3やその他の大規模な言語モデルは、学習データを複数回反復して学習します。そのため、新しいデータを追加して学習した場合は、新しいデータが優先されるようになりますが、古いデータも残っている可能性があります。

古いデータを完全に消し去り、新しいデータだけを学習させるには、古いデータを削除してから新しいデータを学習させる必要があります。

それでも、特に営業時間のような情報なら、新しいデータを追加しても古いデータは残ってしまうことがあります。そのため、営業時間の更新をする場合は、該当するデータを削除し、新しいデータを追加することをおすすめします。

「特定のデータを削除」する方法を教えてください。

特定のデータを削除する方法は、以下のようになります。

  1. 学習データを保存しているストレージから、削除したいデータを検索します。
  2. 削除したいデータを選択し、削除します。
  3. モデルを再学習させます。

ただし、データを削除することで、それに関連する情報も消えてしまうことがあります。そのため、削除するデータによっては、それに関連する情報も一緒に更新する必要があります。

ふむふむ。まあ、そうですよね。最後に学習コストがどれくらいになるかを聞いてみました。(別途、運用費用も必要です)

さきほど「その地域についての観光案内、観光スポットの紹介、体験プログラム、宿泊施設などに関する情報が含まれた、数千から数万のテキストデータがあれば、質問に対する回答の精度が良くなると考えられます。 」と回答いただきました。この「数千~数万のテキストデータ」の学習に必要なChatGPTの料金はどれくらいになると予想されますか?

OpenAI GPT-3の料金はAPIコールごとに課金され、APIの使用量によって異なります。 詳細な料金については、OpenAIのWebサイトで確認することができます。 また、数千から数万のテキストデータを学習させるためには、GPT-3以外の自前のサーバーなどによる構築が必要になるため、それに伴うコストも考慮する必要があります。

精度を高めるためには数千から数万のデータがあると良いと言っていますが、実際にはそれだけではなく、データの質も重要です。 また、学習データが少ない場合でも、学習アルゴリズムやハイパーパラメータの調整等によって精度を上げることができます。

その他のアイデア

以下のようなアイデアが考えられます。別途、記事にしようと思います。

  • 外国語に翻訳してもらう。もしくはその逆
  • システム操作マニュアルを学習させて、システム利用者をサポートしてもらう
  • プランの企画について助言してもらう
  • プラン説明をレビューしてもらい、洗練してもらう

以上です。それでは!

2023年を地域型OTA元年に!!