ChatGPTの全貌 岡嶋裕史 要約

本の概要

ChatGPTが大きな話題となり、その利用者も増加しています。

会話形式での応対力が従来のチャットボットと比較しても、大きく向上していることに驚いた人も多いかと思います。

しかし、ここまで性能の上がったChatGPTに触れると、驚きとともに、不安を感じる人も少なくありません。

・仕事がなくなるのでは?

・AIにできない仕事をすることはできるのか?

・AIに人間が支配されてしまうのでは?

などの疑問を持つ人も増えています。

本書ではChatGPTに何ができて、どんなことに脅威を感じるべきなのか、AIとどのように向き合うべきなのかといったことを知ることができます。

また、AIの発展で仕事が減れば、AIにできない創造的な仕事をすればよいというよく聞かれる提言に対する反論も書かれている点が、他のAI、ChatGPTについての本と異なる点になっています。

この本や記事で分かること

・ChatGPTとは何か、何が脅威なのか

・AIとどのように向き合うべきか

・AIで仕事が減ったときに創造的でAIにできない仕事をすることができるのか

生成AIについての本「生成AI 社会を激変させるAIの創造力」の要約はこちら

AIとの向き合いについての本「AI人世 人工知能と人類の行方」の要約はこちら

ChatGPTの技術的な脅威についての本「チャットGPT vs. 人類」の要約はこちら

本の要約

要約1

自然言語処理に優れ、会話形式での応対力が従来よりも大きく向上したChatGPTがより自然な対話が可能になったこともあり、大きな流行になっています。

機械学習によるデータの大量学習とディープラーニングによる大量のパラメータを設定で、画像認識と自然言語処理の分野で大きな進歩が起きています。

技術の進歩とスマホなどでコンピュータそのものに社会全体が慣れたことで、ChatGPTが広がる土壌が出来上がったことで大きな流行が起きています。

ただし、AIの開発がはじまってからは70年ほどが経過していますが、汎用的人工知能≒強いAIはいまだに開発されていません。

ChatGPTを含め、すべてのAIは特定の問題解決のみを行う弱いAIであり、人間の過去のふるまいを見て、もっともらしい回答を確率的に選択しているだけに過ぎません。

要約2

強いAIのない現状では、AIのサポートを受け、人間が操作や判断を行うような仕組みが理想的になります。

しかし、弱いAIでしかないChatGPTは一部から危険視されています。

その理由はChatGPTが言語処理に優れたAIであるためです。

言語処理に優れたAIは他の分野の様々なAIと人間との間の窓口となり、複数分野のAIを統合することが可能です。

弱いAIでもChatGPTを通じて統合されれば、中くらいのAIにはなる可能生があり、多くのサービスの結節点なることで、ChatGPTに権力が集中してしまう懸念が持たれています。

ほかにも、以下のような懸念も挙げられています。

・ブラックボックス化によるなぜその回答をしたか説明できなくなる

・人間がAIに幻想を見たり、人格を見出してしまい騙されてしまう

・各自に最適化されたAIが利用されれば、SNS以上にフィルターバブルなどの問題が起きる

要約3

AIは神のように正解を出してくれるわけではなく、一定ルールの中で一定のデータを処理し、その結果、はじかれた値を返しているだけに過ぎません。

ルールを作るのはあくまでも人間であるため、AIを神格化することなく、限界を知ったうえで使役すれば、抜群のサポーターにすることが可能です。

AIはもっともらしいものや多くの人が作りそうなものを出力することはできますが、本当の創造性は外れ値でありながら、多くの人を感動させるという綱渡りの先にあるため、AIが創造性をは発揮するのはしばらく先だと思われます。

要約4

ただし、創造性を必要としない分野では、AIの進出が続くものと思われ、一定数の人の仕事はAIに代替されていきます。

このような議論では、人間はAIにできないより創造性の求められることをすべきという意見が必ずなされます。

しかし、創造的な仕事はそれほど多くなく、創造的な仕事をできる人やしたい人はそんなに多くないことが分かってきました。

この人間の真実は直視しなければなりません。仕事が好きで、仕事で自己実現できる人は仕事をし、仕事が嫌いな人はAIに仕事を任せてしまうのもありです。

この真実を直視し、AIが挙げた利益をベーシックインカムのような形で配ったり、AIの学習データとして利用されたクリエイターに還元する仕組みを整える必要があります。

意思決定を他者に任せておきたいと考える人は多く存在し、バイアスの多い人間よりはましと考える人も多くいますが、思決定の能力と権利は外部化すべきではありません。

判断や仕事をAIに任せても、人間が意思決定ができるだけの能力を磨いておくことは極めて重要です。

ChatGPTはなぜ流行しているのか

 ChatGPTが大きく流行しています。

 自然言語処理に優れ、会話形式での応対力が従来よりも大きく向上したため、フランクな話し相手から、堅い話題への回答まで様々な会話に対応できるようになっています。

 膨大な知識と会話のデータのデータを保有していることで、分野横断的な会話に追従できることに加え、以下のような特徴をもっているため、より自然な対話が可能になっています。

・以前の文脈を記憶する能力が高い

・文体や語調、語彙を整えている

 スマホなど搭載機器のレベルの向上、ユーザーのスマホやチャットボットへの慣れなど周辺状況とマッチし、大きく利用拡大が起きています。

ChatGPTは自然言語処理に優れ、会話形式での応対力が従来よりも大きく向上したため、より自然な対話が可能なったことで大きな流行になっています。

スマホなど搭載機器のレベルの向上、ユーザーのスマホやチャットボットへの慣れなど周辺状況とマッチしたことと和せて、利用の拡大が起きました。

ChatGPTは汎用AIなのか

 AIの開発が始まってからすでに、70年度ほどが経っています。多くの失望を乗り越えて、現在の流行にたどり着いています。

 AIの開発は汎用的人工知能≒強いAI、特定の問題解決のみを行う弱いAIに分けられ、現時点でAIと呼ばれているものは、ChatGPTなども含む、すべて弱いAIの範疇に入ります。

 ChatGPTは人間の過去のふるまいを見て、もっともらしい回答を確率的に選択しているだけに過ぎません。

 それでも、機械学習によるデータの大量学習が可能になり、ディープラーニングによって、大量のパラメータを設定できるようになった事で、画像認識と自然言語処理の分野で大きな進歩が起きています。

 技術的な進化だけでは社会に浸透することはありませんが、スマホなどでコンピュータそのものに社会全体が慣れたことで、ChatGPTが広がる土壌が出来上がったとも言えます。

AIは汎用的人工知能≒強いAIと特定の問題解決のみを行う弱いAIに分けられます。

ChatGPTは人間の過去のふるまいを見て、もっともらしい回答を確率的に選択しているだけであり、そのほかの現時点でAIと呼ばれているものはすべて弱いAIです。

それでも、機械学習とディープラーニングによって、画像処理、自然言語処理の分野では大きな進歩が起きています。

ChatGPTはこの先どう進化していくのか

 ChatGPTは今、GPT3.5という一世代前のGPTに接続されてます。

 GPT-4というバージョンがその中身は3.0や3.5と比較し、新しいものが追加されたわけではありませんが、一番の要点は規模を大きくしたことです。

 規模が大きくなったことで、作り出す回答の人の役に立つ度合や自然さが大きく改善しています。

 根本の仕組みは変わっていませんが、文末表現の多様化によって人間性が増し、プログラミング言語の使用が可能になったことなどで汎用性が増しています。

 また、単純なデータセットの増加も効果的であり、これまでは学習していなかったようなマイナーな分野の知識が増え、より広範囲な分野に対応できるようになっています。

 大きくなることでの性能向上は、もうしばらく続くものと思われますが、徐々に逓減する可能性が高いものです。

 また、規模を大きくすることで人間の脳のようなことができるのかは意見の分かれている部分です。

最新のGPT-4は過去のバージョンと比べて、、新しいものが追加されたわけではありませんが、一番の要点は規模が大きくなっています。

根本の仕組みは変わっていませんが、下記のような要因で規模が増加し、汎用性が増しています。

・文末表現の多様化

・プログラミング言語の使用が可能になった

・データセットの増加

しばらくは規模の増加による性能向上は続きますが、徐々に逓減する可能性が高く、規模を大きくすることで人間の脳に近づけるかは意見の分かれているところです。

ChatGPTを利用する上で重要なことは何か

 ChatGPTを利用する上で重要になるのは、どのような頼みかたをするのが効果的かを考えることです。

 Siriなどの初期型のチャットボットで簡単な質問をすることに慣れてしまっていますが、ChatGPTでは情報を与える量が増えるほど望ましい回答が増えます。

 また、回答を踏まえて、追加の指示を繰り返すことで精度の高い成果物の出力が可能です。

 多量の情報をかみ砕いて、何度も入力することで、良い回答を得ることができます。人間相手より面倒と思う人も、多いと思いますが、人間でも相手の立場などを考えて頼む必要があることは同じようなものです。

 答えを一発で出してくれる存在ではなく、デスカッションや練習の相手としての使用が適切です。何度指示をし直しても、疲れたり、迷惑と感じないため、試行錯誤がしやすいという特徴を活かすことができます。

ChatGPTで精度の高い成果物を得るためには以下のようなやり方が効果的です。

・多くの情報量を与える

・何度も追加で繰り返し、情報をかみ砕いて指示する

答えを一発で出してくれる存在ではなく、デスカッションや練習の相手としての使用が適切です。

人間相手より面倒と思ってしまいますが、人間でも相手の対場を考えて頼む必要があることもありますし、何度指示し直しても問題ないという特徴を活かしやすくなっています。

AIとどのように向き合うべきか

 人間が苦手な部分とAIの苦手な部分を理解し、お互いの苦手部分を補うような形で、仕事をしていくことが理想です。

 AIのサポートを受け、人間が操作や判断を行うような仕組みが現状では理想的と考えられます。

 不適切なデータセットからの学習で偏ったAIになってしまうことが指摘されていますが、これは人間でも同じことです。

 ChatGPTは汎用的なAIではありませんが、一部からは危険視されています。その理由は言語能力は他のすべての能力の核となるためです。

 これまで、様々な弱いAIを別々に使う必要がありましたが、自然言語処理に優れたAIがあれば、複数分野のAIを統合するようなことが可能です。

 複数の弱いAIを統合すれば、強いAIは無理でも、中くらいのAIくらいなら作れるかもしれないため、脅威と感じる人も少なくありません。

AIのサポートを受け、人間が操作や判断を行うような仕組みが現状では理想的です。

ChatGPTが危険視されているのは、自然言語処理に優れたAIであれば、複数分野のAIを統合するようなことが可能であるためです。

複数の弱いAIを統合すれば、強いAIは無理でも、中くらいのAIくらいなら作れるかもしれないため、脅威と感じる人も少なくありません。

GPTの脅威はどんなものか

 GPTが中くらいのAIの核になれば、GPTは多くのサービスの結節点となり、権力が集中してしまう可能性があり、これが危険視される理由の一つです。

 もう一つは、ブラックボックス化です。

 ディープラーニングで無数のパラメータからAIが答えを出すようになると、どうしてそのような回答を出したのかを説明することは難しくなります。

 ほかにも人間がAIに幻想を見てしまう可能性もあります。

 人間は認知の歪みによってコンピュータの動作が人間と似ていると考えてしまいます。

 AIが意識や感情を持つことは、近いうちにはありませんが、人間のほうがAIや機械に意識があると感じることはあります。もしも人間がAIの中に人格を見出したいと考えるようになれば、人間がAIに操られたり、騙されてしまう可能性は充分にあります。

 各自に最適化されたAIを利用したチャットボットであれば、SNS以上にフィルターバブルなどは問題となってしまいます。

GPTは多くのサービスの結節点となり、権力が集中してしまうことが危険視される理由の一つです。ほかにも下記のような懸念が持たれています。

・ブラックボックス化によって、なぜその回答をしたか説明できなくなる

・人間がAIに幻想を見たり、人格を見出してしまい騙されてしまう

・各自に最適化されたAIが利用されれば、SNS以上にフィルターバブルなどの問題が起きる

AIはどのように利用すべきか

 様々な処理や判断にAIが使われるようになっていくのは間違いないことです。

 ただし、ChatGPTなどの言語モデルは、質問を理解しているのではなく、膨大なデータから、もっともらしく、確率の高い回答をしているだけです。

 また、AIは神のように正解を出してくれるわけではなく、一定ルールので一定のデータを処理し、その結果はじかれた値を返しているだけに過ぎません。

 ルールを作るのも人間ですし、どんなデータを取得する蚊にも人間がかかわっています。機械学習で自動的に学ぶといっても、どのようなデータからどんな風に学ぶかには人間がかかわっています。

 AIを神格化することなく、限界を知ったうえで使役する分には抜群のサポーターになってくれるはずです。

 ほかの技術と同じように、危険な面もありますが、メリットも大きいものです。野放図に使うのではなくデータの集積に務め、解析していく姿勢が重要です。

ChatGPTなどの言語モデルは、質問を理解しているのではなく、膨大なデータから、もっともらしく、確率の高い回答をしているだけです。

AIは神のように正解を出してくれるわけではなく、一定ルールので一定のデータを処理し、その結果はじかれた値を返しているだけに過ぎません。

ルールを作るのは人間ですし、AIを神格化することなく、限界を知ったうえで使役すれば、抜群のサポーターとなります。

メリットの大きさを活かすためにも、野放図に使うのではなくデータの集積に務め、解析していく姿勢が重要です。

意思決定はAIがすべきか人がすべきか

 GAFAによるプラットフォームにも懸念はありましたが、多くの人が自分のデータと引き換えにその便利なサービスを利用しています。

 意思決定を他者に任せておきたいと考える人は多く存在しています。またAIの判断も完ぺきではありませんが、バイアスの多い人間よりはましと考える人は確実に増えていきます。

 そうなれば、AIの決定権が増し、権力は非人称化が進んでいきます。

 ただし、AIによる判断が人に超越すれば、公正で透明な社会が到来するわけではありません。汎用AIがまだ遠い目標である以上、判断するAIの背後には人間がいることは理解しておくべきです。

 思考は人を人たらしめる最大の能力と考えるのであれば、コンピュータのことを理解し、道具として、もしくは友達として利用するにとどめ、主人にすべきではありません。

意思決定を他者に任せておきたいと考える人は多く存在し、バイアスの多い人間よりはましと考える人が増える可能性もあります。

芸術分野での生成AIはどのように利用されるのか

 文章、絵画、動画などを生成AIで生み出すことも可能ですが、本当の創造性を発揮するのはまだ先と思われます。

 AIはもっともらしいもの、多くの人が作りそうなものを出力するだけですが、高度なアートは外れ値でありながら、多くの人を感動させるという綱渡りの先にあるものです。

 さらなるAIの発展で、心地よい外れ値を生み出す特徴量が解析される可能性もありますが、まだ先のことと思われます。

 創造性を必要としない分野では、AIの進出が続くものと思われます。

 自分の作品が学習データとして利用されたときに、還元される仕組みがなければ、多くのクリエイターが大きなダメージを受けますし、仕事を奪われる人が一定数出ることも考慮し、AIでの利益を還元する仕組み(ベーシックインカムなど)も必要になります。

生成AIは文章、絵画、動画などを生成することは可能ですが、もっともらしい、多くの人が創り出しそうなものを出力するものです。

高度なアートは外れ値でありながら、人を感動させるものであり、現状AIに生み出せるものではなく、本当の創造性を発揮するのはしばらく先と思われます。

ただし、創造性を必要としない分野では、AIの進出が続きます。AIの学習データとして利用されたクリエイターに還元する仕組みやAIでの利益を仕事を奪われた人に還元する仕組みは必要です。

AIに仕事を任せ、人は創造性の高い仕事をするという提言は妥当なのか

 言語処理に秀でたGPTによって、AIはさらなる進化が起きますが、何らかのルールに従って動くだけの、仕組みでしかありません。

 AIを神格化すべきではありませんが、人間の脳も神格化すべきではないのかもしれません。

 人間の脳の働きは完全には理解できていませんが、そんなに大したことはしていなく、少なくとも、特定分野における平均的な人間の能力を真似ることができる可能性はあります。

 AIに創造的でない仕事を任せ、人間はより創造的な仕事をすべきというビジョンがされますが、創造的な仕事はそれほど多くなく、創造的な仕事をできる人やしたい人はそんなに多くないことが分かってきました。

 この人間の真実は直視しなければなりません。仕事が好きで、仕事で自己実現できる人は仕事をし、仕事が嫌いな人はAIに仕事を任せてしまうのもありです。

 ただし、意思決定の能力と権利は外部化すべきではありません。判断や仕事をAIに任せても、意思決定ができるだけの能力を磨いておくことは極めて重要です。

 AI開発が既存機能の自動化に注目が集まっているため、仕事を奪われると考えてしまいます。やれることを増やすなど人生の選択肢を広げ、人を幸せにするために技術を使うことに向けた努力をしていくべきです。

AIはルールに従って働くだけの仕組みでしかありませんが、人の脳も神格化すべきではないかもしれません。

人間にしかできない、創造的な仕事はそれほど多くなく、創造的な仕事をできる人やしたい人はそんなに多くないことが分かってきています。

それでも、意思決定の能力と権利は人間が持っていることが重要です。

コメント

タイトルとURLをコピーしました