AIが人間を殺す日 小林雅一 3分要約

概要

 音声操作や会話機能などこれまでのAI製品はIT、家電製品に搭載されその利便性を高めるための「軽い用途の人工知能」が多かった。

 しかし今後開発が活発化するのは「重い用途の人工知能」。具体的には以下のようなものへの搭載が考えられている。

・自動車
・医療
・兵器

 これらに利用されるAIの判断は人命を左右するようになる。AIの判断を人間が理解できなくなったとき、なにが起こるかが現在考えられる最も大きなAIのリスク。

AIが仕事を奪うのは限定的

 一般的なAIの脅威として語られる人間の仕事を奪うのでは?というもの。しかし、現状のAIはパターン認識(大量のデータから規則性を見つけること)には優れるものの、他の能力(観察、洞察、コミュニケーション、共感、感受性)などは持つめどが立っておらず、その影響は限定的とされる。

 また、ドアを開ける、梯子を上るなどの簡単な動作もまだこなすことができていないため、作業の一部を代替できるだけに留まる。

 人工知能が人間の知能を上回り、感情や意識を持つようになり人間を支配するようになるシンギュラリティが2045年に起こるのではとする説もあるが、こちらはAIの雇用破壊以上に時間がかかるとみらえている。

現実的なAIの脅威は人の制御からAIの判断が外れること

 現実的なAIの脅威はAIと人間の関係性。制御の環から人間が除外されるという問題。

 これまでの技術はどれほど革新的でもその制御は人間が行ってきたが、制御が人間から離れる技術が広がりつつある。これまでも一般の人は中身の技術や仕組みを理解しないまま様々な機械を使用し、命を預けてきた。しかし、これらの機器は一般の人には理解できない仕組みでも、専門家はその仕組みを理解していたため、機械を人間の制御下に置いていたと言えた。

 AIが発展すると、専門家でもそのメカニズムを理解できくなる可能性が高く、ブラックボックス化したAIの答えを受け入れるか、どのように人間が介在していくかを考える必要がある

 もし、全ての判断をAIに任せれば人は人の格好をしたロボットに過ぎなくなる。

 このような判断の主体がAIに移りかねない状況が、現在最も大きなAIのリスクとされている。

AIには種類があり、自動運転ではそれらを組み合わせて利用してる

 自動運転車に使われるAIはこれまでのAI研究の集大成といえる技術で、以下のような種類のAIが利用されている。

 ルールベースAI:ルールを技術者があらかじめ設定し、ルールにしかがって動作する。
 自動運転では赤信号で止まる、左側通行などを自動で行うこと。

 統計確率型AI:センサから取得したデータを確立的に処理し動作する。
 自動運転では車や歩行者などの移動体の位置を直前の位置から推定することに利用される。

 ニューラルネット:人間の脳を参考にした人工知能
 パターン認識に優れるため、センサ移動体が人間かペット可ごみの袋なのかなどを判断する際に利用される。

非常に低確率なことも現実社会では起きやすいが、それをAIで判断することは難しい

 確率型AIは自動運転でもセンサでの外界測定を繰り返すことで、移動体の位置が確率的に高い部分を計算している。

 世界で起こる確率的な事象は正規分布を持つとされ、確率の高い現象から離れたことは非常に起こりにくい。
 しかし、現実は正規分布と比較すると低確率なことが起こりやすい(=ファットテール)な状態であることが知られてている。正規分布ではまず起こらない0に近い確率でも、現実では比較的大きな確率で起こる。

 金融市場ではすでに問題になっており、100万年の一度の確率とされるようなリーマンショック、ブラックマンデーなどの異常事態が10年に1度程度起こっており、計算上ほとんど起こらないような事態が頻繁に起こってしまっている

 AIでの確率に基づく判断でもファットテールを考慮する必要があるが、難しい。ディープランニングを行うことで、自身で学ぶことができればファットテールに該当するような異常自体も学習できるようになることが期待されている。

自動運転も人間の助けがある前提のレベルの半自動運転

 現在のオートパイロットはAIに判断できない場合やファットテールな事象を感知した場合、人間が操作を行うようになる半自動運転が採用されているケースが多い。
 しかし、半自動運転はどちらが制御しているかわかりにくく、ユーザー側の混乱を招くことも多いGoogleなどは初めから完全自動運転を目指している。

医療では医師とAIの協働が期待される

 コンピュータが人間に勝る圧倒的な情報処理能力を活かして、医療分野への応用も検討されている。

 IBMのAIコンピュータであるワトソンは医者が読むことが不可能なほどの膨大な医学論文を読みこませて、最新の医療情報を学習しておき、医者の判断を支援する役割をする。

 問題はAIと医者に意見が異なった場合 どちらの決定を尊重しても、治療がうまくいかなかった場合、遺族から訴えられる可能性が有る。

 コンピュータが機械学習によってデータを読みこむ際に無数のパラメータを調節しているがパラメータの数が多すぎて、開発者でもAIの決定の理由の解明が不可能になる。これがブラックボックス化。

 説明能力は言語能力が無ければ難しいが、AIに言語能力を持たせることができるのはかなり先とされている。

 一方でゲノム、遺伝子レベルでの病気の解明はデータ数が膨大でAIの利用が不可欠である。また、機械学習を利用したディープランーニングによる診断技術も有望視されている。大量の患者写真などから、病気の特徴を自ら学び、診断を行う医師の少ない貧困地域での利用や診断の効率化が期待されている。

 当初は人間に理由は示してくれなくても、高い確度で妥当性が認められれば徐々に、医師や患者が受け入れられるようになる。抗生物質がなぜ効くのか分かったのは実用化された後数十年かかっており、完全に仕組みが理解されなくても受け入れられてくる土壌はある。

兵器に利用されれば、判断の環から人間が外れることの脅威は大きくなる

自ら標的を定めて突っ込むミサイル
上空からてテロリストを監視するドローン
どこまでも潜水艦を追跡する無人軍用艦
パイロットのいらない無人戦闘機
などこれまではSFでしかなかった兵器の実用化に向け開発されている。

 これらの開発のトップはアメリカが行っている。アメリカはこれまで3度の軍事刷新を行っている。

 1度目は核兵器で、2度目はミサイルなど兵器の小型化、高精度化。しかし、どちらも他国の技術が追いついてきており、優位が小さくなっている。更なる刷新をAIを用いることで再び優位を得ようとしている。

 戦場は想定外の事態が頻発するため、ルールベースのAIではなく、周囲の情報をセンサーで入手し、自ら学ぶ機械学習が適しているが、ここでも判断の環に人間を組み込むかの問題が起こる

 これまでもコンピュータ、レーダーやGPSなどのように軍事技術が民生技術に応用されることは多かった。
 軍事技術の最先端を開発するためには国家権力に裏打ちされた軍事プロジェクトでなければ不可能であったため、小規模な国やテロリストで同等以上の技術を持つことは不可能だった。

 AI兵器ではその流れが逆転し、民生技術が兵器に応用される可能性がある。そのため、資金力のない勢力でも最先端の技術を持てる可能性がある。

 民生技術と軍事技術の境界もあいまいとなる。東大の研究者が大学を飛び出し、会社を設立しグーグルに買収された例は大きなニュースとなった。軍事技術の開発を禁止している東大にいたままでは研究が行えなかったためで、このニュースを受けて、一部デュアルユースについては解禁する流れもある。

コメント

タイトルとURLをコピーしました