IRCA-マネジメントシステム審査員/監査員の国際登録機関 > 情報メディア > ソートリーダーシップ > チャットGPTを使ってみましたーまえがき

チャットGPTを使ってみましたーまえがき

  • LINEで送る
  • このエントリーをはてなブックマークに追加
チャットGPTを使ってみましたーまえがき

UnsplashEmiliano Vittoriosiが撮影した写真

IRCAジャパンのメンバーズサポーター、岩本威生さんが今話題の生成系AI、チャットGPT を実際に使ってみて得られた所感をお寄せくださいました。チャットGPTを利用してみての全般的な所感、チャットGPTと実際にどのようなやりとりをしたのか、チャットGPT の使い方のポテンシャルなどについて、考察しています。

初めに

最近、「チャットGPT」の文字を新聞に見ない日がないと言っても過言でないほどチャットGPTが話題になっている。

ご存じと思うが、チャットGPTは米国のOpen AI社が開発した、対話型(Chat)の文章を生成する(Generative)事前学習型(Pretrained)の変換器(Transformer)を意味する名前が付いた生成系AIの一つである。無料で公開されたこともあって2022年11月の公開から瞬く間に世界に広まった。

人間が書いたものと見分けがつかないような高度な文章を書く人工知能が登場し、ネットワークに公開された膨大な情報のディプラーニング手法を取り込んだAIによる処理との組み合わせで新しい時代が開かれるのではないかという待望論がある一方、個人情報が保護されなくなるのではないかとか、間違った情報が広げられるのではないか、あるいは人間の仕事が代替えされるのではないかといった懐疑論も見られる。

筆者はチャットGPTを使ってISOのマネジメントシステム標準、特にISO9001が持っている疑問が解明できないか検討を試みた。この検討を通してチャットGPTとの対話や得られた回答から思ったことを小文にまとめてはどうかという提案をIRCAジャパンの事務局からもらったので書き留めてみた。

なお、チャットGPTの利用についてはインターネット上に情報が出ている1ので、必要であればそちらを参照して欲しい。

https://gpt.benkyoenkai.org/  等。アカウント登録は https://chat.openai.com 

1.質問の理解力について

チャットGPTは対話型AIであるので質問の入力から利用が始まるので質問をコンピュータが正しく理解してくれるか気がかりだったが、最近のAI の進歩は大きくさすがに質問の理解力は高い。コンピュータのアルゴリズムで処理しているだけではあるが、あたかも質問の内容を熟知している専門家が向き合ってくれているように質問を理解してくれる。

ただ、AIが扱う知識は膨大であるので、一度で適切な情報を引き当てて適切な答えを返してくれると期待すると、「チャットAIは嘘をつく」と言うような評価に陥ってしまう。チャットGPTはアルゴリズムであり、回答が正しいかどうか判断するのは利用者だと認識し、自分の責任を自覚することが大切である。

長い質問にはいくつかの質問が含まれていたり、なんとなく質問をしていると論理的な矛盾が潜んでいたりすることが多い。チャットGPTは質問の理解に困るとフリーズした状態になったり「There was an error generating a response」というメッセージが返ってきたりする。このときは、質問メッセージをよく考えて一つの質問メッセージには一つの質問にするように修正して送り直すことを考えた方が良いことが多い。

このとき、一つの質問メッセージには一つしか質問を入れないようにすることは面倒だと感じるかも知れないが、論理を明快にすることにもつながり、思わぬことに気がついたりする利点もある。

質問を単純化すると質問を分けることになるので、以前の質問との関連性を分かってくれるだろうかと心配になるかもしれない。しかし、その心配はないようだ。

むしろ、質問したことはチャットGPTの情報プールに加えられるようなので、個人情報や公開すべきでない情報は保護のために質問に入れないようにしなければならない。イタリアでは個人情報保護の観点からの疑問で、今は解除されているが、チャットGPTの一時使用禁止の処置がされたと聞く。個人情報などを入れないようにすれば、「個人情報が守られないのではないか」というような心配をする必要がなくなると考える。

チャットGPTは米オープンAI社の開発したものだから、日本語でのチャットは大丈夫だろうかと初めは心配したがその心配はないと考える。むしろ、例えばISO9001では英語で作られているので、翻訳されたJIS Q9001の翻訳について「実証する」という翻訳と原文の「demonstrate」や日本語として通常使っている「品質保証」とISOが定義している「quality assurance」の関係などが本当に対応しているのだろうかというような言語文化の違いからくる疑問を質問してみると理解の助けになるかもしれない。

2.チャットGPTの回答について

膨大なインターネット上の情報やチャットGPTが収集した情報から回答には何が適切か選ぶのは時間がかかるだろうと初めは思ったが、質問を入力して送信アイコンをクリックすると、質問を考えて入力する時間から考えてチャットGPTは驚くほど早い反応で回答をⅠ文字ずつパタパタと返してくる。自分でインターネットを検索して情報を探してくるのと比較すると生産性は驚くほどほど早く、検索の生産性が高くなることを期待させる。

返ってきた回答の文章は自然でよくこなれていて、自分以外の作った文を無断で使うことは好ましくないことではあるが自分の文章として使いたい誘惑に駆られることも考えられる。

一つのテーマに対してインターネット上にある情報は多面的である。ISO9001を例に挙げれば、ISOが発行している標準情報という確立された情報がある一方で、それ以上に多いのがISOの標準を使った利用者や評論家などの発言情報で、正しいのもある一方で取引の円滑化を目的としたISO標準には目をそらして自分たちの企業の体質強化に役に立つ側面ばかりを強調している情報もある。質問を受けてチャットGPTが選定するのは特に制限しなければ数の多い情報を参照して回答を作ることになるようだ。

このため、回答がおかしいと感じたら回答に付いてくる「Regenerate response」というメッセージをクリックする2と、人間では前言に拘泥しやすいが対話型AIの場合は平気で別の回答を選択番号付きで提示してくる。この時「「Was this response better or worse? [Better] [Worse] [Same]」というメッセージが表示されるので、後の人のためにも[Better] [Worse] [Same]のいずれかをクリックしておくとチャットGPTは次の機会での学習の材料にすることになる。

あるいは、例えば「ISO9001は顧客満足事項を満たす能力の説明能力を確実にさせることを目的にしていますが、今の回答はその観点で考えて適切ですか?」というような追加質問をすると、追加質問が正しいと判断したら前の回答にこだわることなく「すみません、先程の回答に誤りがありました」と言って回答を修正する。これによって回答のアルゴリズムが修正されて改善される可能性がある。

これから考えられるように、チャットGPTは先生でも専門家でもなく、コンピュータというアルゴリズムで動いているだけだから絶対に正しいと言うことはあり得ない。誤情報を排除することはできないので、回答が適切かどうかを判断する責任は質問者側が持たねばならないと考える。このことは、チャットGPT、生成系AIを使ったことで意見の正当性は主張することはできないことを意味している。チャットGPTを使った意見を他に対して使う場合は利用者が責任を持たねばならない。

チャットGPTが作成した文の著作権はオープンAI社に属するが基本的にはパブリックドメイン扱いとなっているとのことで商業利用以外は著作権フリーと扱って良いようだが、公表する場合には情報の検索にチャットGPTを使ったことを断って置かねばならないことは文章を書くための常識であろう。

自分が責任を持たない意見を他の人に提示するのは倫理的にもおかしなことで、チャットGPTに頼ったのにあたかも自分で作ったように装ってレポートを提出したりすることは慎まなければならない。いま、EUでは生成系AIを使った著作物などに「Made with AI」というような表示を付けることを法制化することを検討中であると日経新聞が報じていたことはこのことと共通することである。

2 https://gpt.webmist.info/chatgpt-regenerate/ など 

3.生成系AIの利用について

検索目的のチャットGPTの利用で見てきたように、好むと好まざるとに関わりなくチャットGPT(生成系AI)の有用性は明らかである。チャットGPTが公表された当初は何か得体の知れないものを見るように遠巻きにしてきた感があるが、世界は積極的に進み始めている。東大の太田副学長がチャットGPTについての取り組みについて提案している3

日本政府としても岸田文雄首相がオープンAI社のサム・アルトマンCEOと面会する4など積極的に関与することを決めたようである。

学習目的の利用ではチャットGPTの提示する情報が正しいかどうかの判断基準はチャットGPTに以前せざるをえず、学習者は持っていないので、体的な責任を取ることは難しいかも知れない。主体的な責任を取れるやり方で利用することを考える必要がある。

3 https://aismiley.co.jp/ai_news /tokyo-university-generative-ai/
4 https://www.nikkei.com/article/DGXZQOUA101XV0Q3A410C2000000/ など


「まえがき」ではチャットGPT に対する全般的な所感を述べた。「実践編 1」では、チャットGPTとの実際のやりとりのいくつかをご紹介し、「実践編 2」では米国発の生成系AIであることを逆手に取った使い方についても考察する。

関連キーワード

CQI レポート The Future of Work 未来の働き方
IRCAテクニカルレポート:ISO22000:2018