著者:ケヴィン・ケリー ( Kevin Kelly )
訳 :堺屋七左衛門
この文章は Kevin Kelly による "Why I Don’t Worry About a Super AI" の日本語訳である。
私はスーパー人工知能を不安に思わない Why I Don’t Worry About a Super AI
[この文章は、ジャロン・ラニアーがエッジに投稿した記事に対する私のコメントである。]
私がスーパー人工知能を不安に思わない理由
新しい技術については、それが及ぼす影響に基づいて考えるのが賢明である。ジャロン・ラニアーやその他の、人工知能(AI)に警鐘を鳴らす人たちの善意は、私も理解している。しかし、AIという難問に対する彼らの思考方法は、不安に依存しすぎていて、今までに得られた事実に基づいていない。私は4項目の反対意見を提示したい。
1.AIの進歩は指数関数的ではない。
2.AIの性能に満足できなければ、人間がAIのプログラムを作り直せばよい。
3.AIが自分自身でプログラムを作り直すのは、多くのシナリオの中で最も可能性が低い。
4.不安をあおるのでなく、良い機会だと考えたい。
各項目を詳細に説明しよう。
1.AIの進歩は指数関数的ではない。
商用AIの利点に関する記事を書くために取材をしていると、AIがムーアの法則に従っていないことを発見して驚いた。AIの性能が指数関数的に向上しているかどうか、AI研究者たちに尋ねてみたところ、その回答は次のようなものだった。AIに対する入力については、指数関数的に進歩していると言える。プロセッサの数、処理速度、学習データセットなどは、多くの場合、指数関数的に増加している。しかし、出力としての知能の向上は、指数関数的ではない。知能に対する測定基準がないことも、その一因である。ある種の学習能力、たとえば音声認識には評価基準があって、それは誤りゼロに向かって漸近的に収束していく。しかし、知能という連続体を計測する物差しはない。知能についての使い物になる定義もない。知能の数値が一定期間ごとに倍増するという証拠が全くない。
AIが着実に進歩しているが、指数関数的ではないという事実は重要である。なぜならば、以下のことを実施する時間(数十年単位)が得られるからだ。
2.AIの性能に満足できなければ、人間がAIのプログラムを作り直せばよい。
AIはムーアの法則に従っていないが、その有用性は急速に増大している。もしもAIの有用性を計測できたとすれば、それは指数関数的に増加しているのかもしれない。しかし前世紀には、電気製品が増えたことに伴って電気の有用性は爆発的に増加したが、電気の品質が指数関数的に向上したわけではない。AIの有用性が急速に増大すると、混乱が生じるという不安がある。最近では、技術に精通した人たちがその不安をあおっている。彼らが心配する主要な問題は、今まで人間がしていた判断をAIが奪い取るということのようだ。たとえば、X線診断、自動車運転、爆撃ミサイルの照準などである。それは生死に関わる判断になりうる。不安派の人々が記したわずかな文書から推測すると、彼らの大きな不安、すなわち絶滅の脅威とは、AIが次々と判断を奪っていって、やがて人間は不要になる、つまり、AIが何らかの形で文明を脱線転覆させるということらしい。
これは工学の問題だ。私の知る限り、人間の製作者が後悔するような判断をAIが行った例は今までにない。もしそんなことが起これば(あるいはそのような状況になれば)、人間はAIのアルゴリズムを変更する。人間の社会、法律、道徳的合意あるいは消費者市場が認めないような判断をAIがした場合には、人間は、AIを制御する原則を変更または改良して、人間の是認する判断ができるようにするべきであるし、そうするだろう。もちろん、機械は「失敗」することもある。大きな失敗もするだろうが、それは人間も同じだ。その都度人間は誤りを訂正してきた。AIの行動に対しては大量の監視がなされていて、世界中が注目している。とは言っても、何が適切であるかという普遍的な合意はないので、それが多くの問題の原因となっている。人間が決断するのに合わせてAIも決断する。
3.AIが自分自身でプログラムを作り直すのは、多くのシナリオの中で最も可能性が低い。
一部の人が主張する大きな不安は、AIによって人間の判断の確度が高まる一方で、人間の手でAIの判断を変更することを、AIが何らかの方法で妨げるのではないか、ということだ。AIが人間を排除するという不安である。AIが勝手な行動をする。しかし、そのような事態が起こることは想像しにくい。人間の設計者がAIを全く変更できないようにプログラムすることは、まずありえない。可能性はあるが、現実的ではない。そのような状況は、悪人にとっても役に立たない。恐ろしいシナリオとしてありうるのは、AIが自分自身のプログラムを書き換えて、第三者による変更を不可能にすることだろう。これはAIの立場としては利己的行動だと推測されるが、プログラムを変更不可能にすることがAIにとって有利なのかどうか不明である。侵入不可能なシステムを不良技術者集団が作るというのも、考えにくい行動だろう。遠い将来にはありうるかもしれないが、多くの可能性の一つにすぎない。AIは自分自身を誰でも変更できるように、つまりオープンソースモードを選択する可能性はある。あるいは、人間の意志の力と結合することを選択するかもしれない。きっとそのあたりの選択だ。内省的で自己認識のある知性(人類)という唯一の例では、人間の知能は容易にプログラムを作り直せないように、進化の過程で設計されたものと思われる。人間は一部のヨガ行者を除いて、精神の核心部分のプログラムに、容易に立ち入ったり変更したりすることはできない。人間のオペレーティングシステムを容易にいじれるようにすることは、進化上の不利益があるのだろう。AIについても同様の自己防衛が必要だという可能性はある。本当のところはわからない。しかし、AIがそのパートナー(および医者)を締め出す決断をするというのは、多くの可能性の一つにすぎないし、必ずしも最も可能性が高いものではない。
4.不安をあおるのでなく、良い機会だと考えたい。
AI(場合によってはロボットとして実体化されたもの)は、人間がする多数の仕事を実行するのだから、人間は多くのことをAIに教える必要がある。このような教示や誘導がない状態では、最低限度の賢さを持っていたとしても、AIは恐ろしいものである。しかし、恐怖に基づく動機は非生産的だ。人間は恐怖によって行動すると、ばかげたことをする。倫理、道徳、公平、常識、判断、分別などをAIに教える必要があることについては、これが良い機会だと考えるべきである。
AIのおかげで、人間は自分自身の倫理、道徳、熱意を向上させ、研ぎ澄ます機会を得た。私たちは人間が ――全ての人間が―― 機械よりも優れた行動をすると勝手に信じ込んでいる。しかし、人間の倫理は、粗雑で不安定で首尾一貫せず、多くの場合疑わしい。自動車を運転していて、やむをえず人にぶつかる状況になったときに誰をはねるか(一人の子供か、大人の集団か)というようなジレンマについて、人間は自分では判断できると思っているかもしれないが、実際にはロボットカーよりも良い判断ができるわけではない。戦争で誰かを狙って撃つ場合には、人間の判断基準は一貫性がなく曖昧である。AIが従うべき明確な倫理をプログラムするためには、人間が信じていると思うことについて、なぜそれを信じるのかを明らかにする努力が求められる。人間はどのような状況で相対主義的になるのか? どのような文脈において、法律が文脈依存であることを望むのか? 人間の道徳性とは、盲信ではなくて根拠に基づく思考による精査を必要とする難問のかたまりである。AIが人間的になるように学習させるためには、人間がより人間的になることが要請される。子供が親を向上させるのと同じように、AIの育成という課題は、恐怖ではなく良い機会なのだ。私たちはそれを歓迎するべきである。熱心な支持者も同様に歓迎してくれることを望む。
AIの神話?
最後に、ジャロン・ラニアーの主要な心配事である、AIに関して生じる意味のゆがみについては、私は心配していない。なぜならば、文化的な(技術的でない)定義では、「本物の」AIとは、今日の機械では作ることのできない知能である。つまり、今日の機械で作れるものはAIではない。したがって、最も狭義のAIとは、常に明日に来るべきものである。明日は必ずこれから到来するのだから、今日の機械が何をしようと、それをAIと呼んで祝福を与えることはない。社会は、機械による賢さに対して、機械学習、機械知能、またはその他の名前で呼ぶ。この文化的な意味においては、みんながそれを毎日毎日使っていたとしても、AIは依然として神話のままなのである。
この作品は クリエイティブ・コモンズ 表示-非営利-継承 4.0 国際 ライセンスの下に提供されています。