2017年2月20日月曜日

ホーキング博士、イーロン・マスクが支持。AIの叛乱を防げるかもしれない「AI開発 23原則」|ギズモード・ジャパン

ホーキング博士、イーロン・マスクが支持。AIの叛乱を防げるかもしれない「AI開発 23原則」|ギズモード・ジャパン:

 今回の話題は、この山ちゃんウェブログで何度となく取り上げている人工知能(AI)に関して、専門家グループがAI開発の23原則というのを提唱したという話題をGeorge Dvorsky氏の記事の和訳を元に考えてみます。何と言っても、AIは他の分野と違って「アンコントローラブル」さが際立った領域です。通常のソフトウェアであれば、人間がプログラムした範囲の中でしか動作することができませんが、ことAIに関してはプログラムされるのは「学習の仕方」であって、実際の動作はそのAIが何を学習するのかによって大きく変わってきます。しかも、AIが学習の結果として導き出す判断は、ある特定の分野では人間の判断力をも凌ぐものになっています。つまり従来の機械やソフトウェアが人間の掌の上で転がされているイメージなのに対して、AIは人間の手を離れた、例えていうなら天才児を生み出すような、そんなイメージなのです。この天才児が人類の「ため」になるか「アダ」となるかは、生み出した親さえも想像がつかないというのが現実なのです。

 「23 Asilomar AI Principles」(アシロマAI 23原則)と名付けられたこのガイドラインは、AIの研究・倫理と価値基準・長期的な問題という3つにカテゴリーされ、研究戦略やデータ所有権・透明性・人工超知能の危険性までをカバーしています。この23原則は強制力はないものの、今後のAI開発の指針となることが予想されています。元記事からその23原則を具体的に転記させて頂くと、以下のようになります。

研究
(1)AI研究の目標は、無秩序な知能ではなく有益な知能の開発である。
(2)AIへの投資は、コンピューター科学、経済、法律、倫理、社会学の観点から有益と考えられる研究に向ける。
(3) AI研究者と政治家の間で、建設的で健全な対話を行なう。
(4)研究者や開発者の間には協力、信頼、透明性の文化を育くむ。
(5)AIの開発チーム同士での競争により安全基準を軽視することがないよう、チーム同士で協力しあう。

倫理と価値基準
(6)AIシステムはその一生を通して、できる限り検証可能な形で安全、堅牢である。
(7)AIシステムが害をなした場合、原因を確認できるようにする。
(8)自動システムが司法判断に関わる場合、権限を持つ人間が監査し、納得のいく説明を提供できるようにする。
(9)AIシステムの開発者は、システムの使用、悪用、結果に倫理的な関わりがあり、どう使用されるかを形作る責任と機会がある。
(10)自動的なAIシステムは、目標と行動が倫理的に人間の価値観と一致するようデザインする。
(11)AIシステムは、人間の尊厳、権利、自由そして文化的多様性と矛盾しないようデザイン、運営しなければならない。
(12)AIには人間のデータを分析し、利用する力があるため、データを提供する人間は自分のデータを閲覧、管理、コントロールする権利が与えられる。
(13)AIによる個人情報の利用は、人間が持つ、あるいは持つと思われている自由を理不尽に侵害してはならない。
(14) AI技術は可能な限り多くの人間にとって有益で力をあたえるべきだ。
(15)AIによる経済的な利益は広く共有され、人類全てにとって有益であるべきだ。
(16)人間によって生まれた目標に関して、AIシステムにどのように決定を委ねるのか、そもそも委ねるのかどうかを人間が判断すべきだ。
(17)高度なAIシステムによって授かる力は、社会の健全に不可欠な社会課程や都市過程を阻害するのではなく、尊重、改善させるものであるべきだ。
(18)危険な自動兵器の軍拡競争が起きてはならない。

長期的な問題
(19)一致する意見がない以上、未来のAIの可能性に上限があると決めてかかるべきではない。
(20)発達したAIは地球生命の歴史に重大な変化を及ぼすかもしれないため、相応の配慮と資源を用意して計画、管理しなければならない。
(21)AIシステムによるリスク、特に壊滅的なものや存亡の危機に関わるものは、相応の計画と緩和対策の対象にならなければならない。
(22)あまりに急速な進歩や増殖を行なうような自己改善、または自己複製するようにデザインされたAIは、厳格な安全、管理対策の対象にならなければならない。
(23)超知能は、広く認知されている倫理的な理想や、人類全ての利益のためにのみ開発されるべきである。

 まず研究カテゴリーにおいては、「有益」「建設的」といった曖昧な言葉が並んでいます。「有益な知能」なんていう曖昧な表現は取る人によってどうとでも取れそうですが、同じことをDvorsky氏も考えたようでカリフォルニア大学の物理学者Anthony Aguirre氏にインタビューしたところ、逆にその曖昧さは狙ったものだということなのだそうです。つまり、この原則の最も重要な点は、有益かどうかが開発の動機になる、もっと言い換えると開発者は、単に技術競争や知的好奇心から「デキ」のいいAIを作るのではなく、倫理面も含めて人類にとってどういう結果をもたらすのかを積極的に考える必要があるということなのです。

 次に倫理と価値基準のカテゴリーにおいては、できる限り人間からコントローラブルで人間があくまでも上位にいるべきだということを述べています。AIが高度な判断を下すとしてもそもそもAIに判断させるかどうかを決めるのは人間(第16項)というように、決して人間より上にAIが来てはならないとしています。研究カテゴリーと合わせると、AIの開発者には人類の未来がかかっているといっても過言ではないかもしれません。

 最後の長期的な問題というカテゴリーですが、特に目を引くのは人類の存在危機に関する第22項ではないでしょうか。つまり、それまでの原則がAIを開発する人間を縛ろうという原則だったのに対して、この項目はAIを開発するのもAIだったらというケースを考えているのです。自分で自分を改良したり変更したりできるような自己成長型AIは、うっかり人間にとって不利益な機能を身につけてしまうかもしれません。従って、自己成長型Aは特に注意して監視する必要があるということです。

 しかし自分は、ものすごいスピードで進化し続ける自己成長型AIの成長過程を人間が検証したり監査したりするのは、両者の生きている「時間スケール」がそもそも違っている以上、とても現実的ではないと思います。人間が生きている秒単位・分単位のような時間は、コンピューターにとってはとてつもなく長い時間で、その間に原始的なAIが超知能へ成長してしまいかねないと思うのです。Aguirre氏は、自己成長型AIが誕生すると同時に(コンピューターにとっては自己成長の時間があったはずですが、人間の時間スケールで "瞬時に" という意味で)世界が覆さないと考えるのは愚かだと警告しています。しかし、一体どうやってAIが一瞬にして自己成長してしまうのを人間が止めることができるでしょうか。第6, 7項あたりにもあるように、自己成長型AIはあらかじめ人間の時間スケールで検証・監査可能なよう、十分なディレイ時間を持って成長がゆっくりゆっくり進むように仕組まないといけないと思います。そしてAIの自己成長の過程で、人間にとって不都合な機能を身につけたり人間の時間スケールに合わせるためのディレイ時間を排除したり、何か少しでも怪しい挙動が少しでも見えたら、人間がAIの動作を止めてしまえる緊急停止スイッチを組み込んでおくことも重要だと思います。

 しかし、そうまでしても映画ターミネーターに出てくる「スカイネット」のような存在の誕生を防げる保証はありません。この23原則は結局のところはガイドラインでしかありません。AIの開発に携わるエンジニアは、高い技術はもとより極めて高いモラルと慎重かつ十分な安全措置を組み込むことが求められるのです。

ブログランキングに参加しています。よろしければポチッとご協力をお願いします

0 件のコメント:

コメントを投稿