本の概要
対話型の生成人工知能「チャットGPT」は生成AIの一部として、大きな注目を浴びています。
実際にChatGPTの利用者はネットサービスの歴史の中でも最速で利用者数が増加するなど世界中で大きな注目を浴びています。
自然な応対を行うチャットGPTはついに人間が機械によって人間を創造したのでは?と錯覚させるほどのものです。
一方で、AIはそれまでの文章のつながりから次に来る可能性の高い言葉を機械的に選んでおり、内容を理解したり、事実かどうかの判断をしているわけではありません。
このことは特に偽情報の拡散などにつながってしまう可能性もあり大きな懸念点になっています。
それでも生成AIは人の頭脳を拡張し、人間そのものの変化を後押しするようになることは間違いありません。
チャットGPTの何がすごいのか、今どのような状況なのか、そのリスクは何なのか、どのように向き合うべきなのかなどを知ることができる本になっています。
この本や記事で分かること
・チャットGPTとはなにか、社会での現状
・チャットGPTのリスク
・チャットGPTのリスクとのどう向き合うべきか
生成AIについての本「生成AI 社会を激変させるAIの創造力」の要約はこちら
AIとの向き合いについての本「AI人世 人工知能と人類の行方」の要約はこちら
ChatGPTの本当に脅威な部分が何かについて書かれた「ChatGPTの全貌」の要約はこちら
本の要約
対話型の生成人工知能「チャットGPT」の人間と見まがう自然な受け答えは大きな衝撃を与えました。
チャットGPTはユーザーとのチャット(対話)形式で様々なコンテンツを自動生成する生成AIです。
質問への回答、メールなどの文面作成、コンピュータプログラム作成などを自然な応答の中で行うことができる、複数の試験で人間の受験者をしのぐなど大きく進化しており、ついに人間が機械によって人間を創造したのでは?と錯覚させるほどです。
世界中の人々が熱狂しながら、チャットGPTの行方を見守っています。
深層学習モデルを意味するトランスフォーマーと教師なし学習と教師ありの微調整を組み合わせた言語理解タスクの組み合わせでGPTが開発されています。
チャットGPTの成功からからGAFAMなどIT王手各社が苛烈な軍拡競争に突入しています。
チャットGPTはAIのソリューションが企業や市民に大きなチャンスを与える一方で、リスクをもたらす可能性も指摘されており、規制を行っている国や地域も見られます。
チャットGPTは文章の要約や質問に自然に答えることができますが、幻覚と呼ばれるもっともらしいでたらめを書き出すこともあります。
AIはそれまでの文章のつながりから次に来る可能性の高い言葉を機械的に選んでいます。内容を理解したり、事実かどうかの判断をしているわけではないため、このような問題が発生します。
チャットGPTが広がれば、チャットGPTの作り出した幻覚をもとに新しい文章が作成されてしまい、Web空間の情報の質と信頼が低下してしまう可能性もあります。
また、AIによるレコメンドシステムが人々の趣味嗜好にあったもの以外を排除するため、バイアスを増幅する問題を引き起こしてきました。
パーソナル化したAIになれば、さらに自分と異なる意見に触れる機会が減り、バイアスが助長されてしまいます。
チャットGPTにはほかにも
・プライバシーの侵害や企業秘密の漏洩
・雇用の減少
・犯罪への利用
・制御不能な進化への懸念
などのリスクが懸念されています。、個々のユーザーへのセキュリティ意識やリテラシーの強化、AIにできることと人間にしかできないことの整理などが求められています。
説明する能力も必要と考えるとAIに知性はないという見方もできますが、AIの出力は平均的な人間からのデータを基に出力しているため、私たちの偏見や先入観が露呈しているだけと考えることもできます。
知性の有無にかかわらず、生成AIが人の頭脳を拡張し、人間そのものの変化を後押しするようになることは間違いありません。
チャットGPTを使って社会や人をどう変えるのかを100年後の未来から問われているのかもしれません。
チャットGPTはなぜ注目されているのか
対話型の生成人工知能「チャットGPT」の人間と見まがう自然な受け答えは大きな衝撃を与えました。
ついに人間が機械によって人間を創造したのでは?と錯覚させるほどで、世界中の人々が熱狂しながら、その行方を見守っています。
ロースクールの進学適性試験、ソムリエの筆記試験などで大半の人間の受験者をしのぐなどの進化を遂げ、ChatGPTの利用者はネットサービスの歴史の中でも最速で利用者数が増加するなど世界がチャットGPTに注目しています。
チャットGPTは人間と見まがう自然な受け答えや複数の試験で人間の受験者をしのぐなどの点で大きな注目を集めています。
チャットGPTとは何か
ユーザーとのチャット(対話)形式で様々なコンテンツを自動生成する生成AIは、専門的な知識なくても、思いついたキーワードからテキスト、イラスト、写真、動画、音楽などを瞬時に、自動作成するものです。
生成AIは一般のユーザーにとって、最先端のAIを利用するためのハードルを下げるインパクトをもっていました。
チャットGPTは主にテキストを扱うもので、質問への回答、メールなどの文面作成、コンピュータプログラム作成などを自然な応答の中で行うことができ、大きな話題を呼びました。
チャットGPTはユーザーとのチャット(対話)形式で様々なコンテンツを自動生成する生成AIです。
テキストを扱うものでは、質問への回答、メールなどの文面作成、コンピュータプログラム作成などを自然な応答の中で行うことができるため、大きな話題を呼びました。
チャットGPTは世界をどう変えているのか
チャットGPTの成功からIT王手各社が苛烈な軍拡競争に突入しています。
マイクロソフトが積極的な投資を行い、自社の検索サービス、ビングへのチャットGPTを導入先行するとグーグル、アマゾン、メタなどの大手も後を追っています。
チャットGPTはAIのソリューションが企業や市民に大きなチャンスを与える一方で、リスクをもたらす可能性も指摘され、規制を行っている国や地域も見られます。
チャットGPTの成功からからGAFAMなどIT王手各社が苛烈な軍拡競争に突入しています。
大きなチャンスにつながる反面、リスクをもたらす可能性も指摘されています。
GPTはどのように生まれたのか
GPTとは生成事前学習トランスフォーマー(Generative Pre-trainef Transformer)の頭文字からとっています
トランスフォーマーとは深層学習モデルのことで着目すべき単語同士の結びつきを評価し、効率的な言語処理を可能にするものです。
また従来は入力と出力のデータの正解のセットを人間が作る教師あり学習がAIで用いられていましたが、チャットGPTでは正解のない学習データからAIが自ら規則性を学習する教師なし学習が用いられています。
トランスフォーマーと教師なし学習と教師ありの微調整を組み合わせた言語理解タスクの組み合わせでGPTが開発されました。
深層学習モデルを意味するトランスフォーマーと教師なし学習と教師ありの微調整を組み合わせた言語理解タスクの組み合わせでGPTが開発されています。
チャットGPTのリスクは何か
チャットGPTは文章の要約や質問に自然に答えることができますが、しばしば、もっともらしいでたらめを書き出すこともあります。
もっともらしいでたらめは幻覚と呼ばれ、チャットGPTの大きな問題と認識されています。
チャットGPTが社会の浸透するほど、フェイクニュースなどを作り、情報空間全体の質と信頼を低下させる可能性があります。
AIはそれまでの文章のつながりから次に来る可能性の高い言葉を機械的に選んでいます。内容を理解したり、事実かどうかの判断をしているわけではないため、このような問題が発生します。
大量の情報から学習しているため、もっともらしい文章にはなっているため、余計に分かりにくくなっています。
また、チャットGPTが広がれば、チャットGPTの作り出した幻覚をもとに、違う文章が作成されることとなり、Web空間の情報の質と信頼が低下してしまいます。
チャットGPTは内容を理解したり、事実かどうかの判断をしているわけではないため、もっともらしいでたらめを書き出すことがあります。
この幻覚と呼ばれる問題はフェイクニュースの拡散の助長など、Web空間の情報の質と信頼を低下させる可能性があります。
ネット上のバイアスは生成AIでどう変化するのか
これまでもAIによるレコメンドシステムが人々の趣味嗜好にあったもの以外を排除するため、エコーチェンバーやフィルターバブルといったバイアスを増幅する問題を引き起こしてきました。
生成段階でパーソナル化されたAIはバイアスをさらに助長することになります。メディアでも生成AIの利用は進んでおり、さらに自分の意見と異なる意見に触れる機会がへり、バブルどころか真空パックのような情報の被膜に覆われてしまうこととなってしまいます。
メディア空間でのバイアスやゆがみをユーザーが修正していくことが求められています。
これまでもAIによるレコメンドシステムはエコーチェンバーやフィルターバブルといったバイアスを増幅する問題を引き起こしてきました。
パーソナル化されたAIがコンテンツを作成するようになれば、さらに自分の意見と異なる意見に触れる機会が減り、バイアスが悪化するため、ユーザーが修正していく必要があります。c
チャットGPTにはほかにどんなリスクがあるのか
チャットGPTの進化は早く、すでに多くの人が人間が作った文章かAIの描いた文章かを見分けられなくなっています。
そのような中で、チャットGPTには偽情報の拡散やバイアスの助長以外にも以下のようなリスクの懸念があります。
プライバシーの侵害や企業秘密の漏洩
チャットGPTは入力した項目を学習データとして利用することもあるため、プライバシーの侵害や企業秘密の漏洩が問題になる可能性があります。
雇用の減少
チャットGPTの導入で少なくとも10%の仕事が影響を受ける可能性があります。
犯罪への利用
フィッシングやオンライン詐欺を容易にしたり、サイバー攻撃への利用可能性があります・
制御不能な進化への懸念
AIの猛烈な発展にガバナンスが追い付かず、人間による制御ができなくなる可能性があります。
自分の仕事のどの部分がどれくらい効率化されるのかを把握したり、個々のユーザーへのセキュリティ意識やリテラシーの強化、AIにできることと人間にしかできないことの整理などが求められています。
・プライバシーの侵害や企業秘密の漏洩
・雇用の減少
・犯罪への利用
・制御不能な進化への懸念
などもリスクに上げられています。リテラシーの効果やAIにできること、できないことの整理をすることが求められています。
チャットGPTをどう捉えるべきか
チャットGPTなどのAIは膨大なデータで学習し、それを基に可能性の高い言葉をつなげているだけで、意味や真偽、因果関係を判断しているわけではありません。
知性とは記述と予測だけでなく、説明する能力も必要と考えるとAIに知性はないという見方もできます。
AIの出力は平均的な人間からのデータを基に出力しているため、私たちの偏見や先入観が露呈しているとも言えます。問題はAIではなく、私たち自身にあるとも言えます。
チャットGPTはAI利用のハードルを劇的に下げました。そのメリットを最大限に発揮するためのスキルが改めて求められています。
生成AIは頭脳の拡張であり、人間そのものの変化を後押しするようになります。人間が変われば社会が変わります。チャットGPTを使ってどう変えるのかを100年後の未来から問われているのかもしれません。
AIの出力は平均的な人間からのデータを基に出力しているため、私たちの偏見や先入観が露呈しているとも言えます。幻覚やフェイクの問題はAIではなく、私たち自身にあるとも言えます。
チャットGPTは社会をどう変えるのかを100年後の未来から問われているのかもしれません。
コメント