件名: ChatGPTは怖くない ~使い倒してラクをせよ の記事に関してご提言

この週末2日間かけるつもりだった「カメラレディ」を、"grammarly"のおかげもありまして、1日で投稿し、学会へのレジストレーションを終えました。

―― どの評価を信じればいい?

週末エンジニアの、この貴重な一日を何に使うか ――

うん、これに使わせて頂こう、と決めました。

今回、以下のコラムを寄稿致しました。

で、読者の方(Sさん)から、以下のメールを頂きました。

江端智一 様

初めてメールさせていただきます。"S"と申します。
いつも記事・日記ともに楽しく拝見させていただいております。
今回:ChatGPTの記事で一点気になるところがあり、ご連絡させていただきました。

6ページ目以降、「ChatGPTの本体は、ニューラルネットワークです。」とまとめている点は少し実体と異なっている気がいたします。
GPT-3の主要な要素Transformerにおいては、ニューラルネットではなく、Attention機構がその主役です。
(2層のフィードフォワードのニューラルネットは使われていますが、CNNやRNNは使われていないのが特長とのことです。)

・参考① オミータ氏の記事
https://qiita.com/omiita/items/07e69aef6c156d23c538

・参考② 杉山聡氏 「分析モデル入門」
(執筆者の杉山聡氏がYoutubeでも解説しています
https://www.youtube.com/watch?v=50XvMaWhiTY&t=498s)

特に②の受け売りですと、Attention機構は内積を用いた類似度計算が肝とのことです。
ですので、「ChatGPTの本体は、内積を用いた類似度計算です。」という方がしっくりきます。

私自身ソフトウェア(組込)系ではありますがデータサイエンス・機械学習等に詳しいわけではないので、
参考情報として受け取っていただければと思います。

以上、ご確認いただけましたら幸いです。

いつもながら、大変ありがたいことです。私の記事は読者の皆様によって支えられております。引き続き、よろしくお願い致します。

で、改めて確認してみましたが、ご指摘は正しいと確認いたしました。

ニューラルネットワーク(フィードフォワード型と、SoftMax Function)も使っていますが、どちらかというと、「ニューラルネットワークの学習で汗をかく」というよりは、「(文章コーパスのデータを使った?)統計処理&類似度の確率計算をする」という処理が、全体のほぼ9割くらい、という感じでした。

上記のコラムのp.7に記載した「対訳コーパスとEBMT/SMTの関係」の図のイメージに近い感じ、と思っています。

わざわざニューラルネットワークで非線形関係を学ばせまでもなく「Attention機構の内積を用いた類似度計算」で、バッチリ行けるぜ ―― という風に、(私は)理解しました。

うん、ニューラルネットワークなんぞ、使わずにすめばそれに越したことはありません(私は、第2次AIブームで、ニューラルネットワークで痛い思いをしています)。

ちなみに、私、杉山聡氏のYoutubeには、たびたびお世話になっております。今回も、紹介して頂いた映像で勉強致しました。

今回私が驚いたのは、このビデオクリップの最後の方に出てくる、Multi-Head Attention の concatです。このビデオではよく分からなかったのですが、ベクトルXに対して、回転変換(でいいんのかな?)する行列の内積を取る、というのは、まさに類似度計算です。

ただ、今、私が分かっていないのは、行列の回転角をどうやって決めているのだろう、ということです。これってGivenで与えられる値なのか、あるいは、フレーズ(から求められたベクトル)毎に、何かのアルゴルズムを使って回転角θを求めているのか ―― あるいは、私が、全く的外れなことを言っているのか ―― が、まだ分かっていません。

ただ、この技術は、様々な分野(ゲームなど)にも使われているとの話を鑑みれば、「ニューラルネットワーク学習の悪夢」なしに、過去の膨大な情報と行列式だけで、非線形の関連の出力を得られるということになります。

これはAI技術にとって、大きな福音です。アホみたいに膨大な学習プロセスなしに、非線形関係が求められるのであれば ―― 少なくとも、学習計算にかかるコンピュータの電気料金の節約の効果は計り知れません


この度メールでご指摘を頂いた、"S"さんに、最大級の感謝を申し上げます。
また、素晴しい解説記事を書かれているオミータさん、論文調査で困った時にいつでもYouTubeで助けて頂いている杉山聡さんに、感謝申し上げます。

今後も助けて頂く予定としております。
引き続きよろしくお願い申し上げます。

江端智一

2023,江端さんの技術メモ

Posted by ebata