Phinlodaのいつか読んだ本

実際に読んでみた本の寸評・奇評(笑)

AI兵器と未来社会 キラーロボットの正体

既にAIが兵器に組み込まれた時代に突入していますが、現時点のAIはせいぜい画像認識。目標物をインプットしておけばGPSなしで目的の場所まで移動して撃破、程度の機能しかありません。それだけでも大したものですが、この本は、将来 AI が進化したらどうなるの、というのがメインテーマです。

低汎用型人工知能という言葉が出てきます。

多様な機能を持ち汎用性のあるものの、設計段階でその振る舞いが決められたロボットに搭載される人工知能を低汎用型人工知能と呼ぶことにしよう。
(p.38)

SFによく出てくる人間と敵対するようなコンピュータとは、かなりレベルが違うわけですが、ただし現在の技術で作れそうなところはリアルです。どう対応すべきか、早急に意思決定しておく必要があるのですが、どうも世界はまだ本気で対応していないような気がしますね。

生物と低汎用型人工知能搭載ロボットでの決定的な違い、前者にあって後者にないもの、それは「生きる目的をもっていること」と「その目的を達成させようとする自律性、能動性」である。
(p.39)

ちょっと気になったのは、皆さん、普段生きているときに「生きる目的をもっている」と意識した上で生きているのだろうか…、まあそれはスルーするとして、ご存知かもしれませんが、現時点で流行している AI は、単なる顔の識別程度の知能で、物事を考えて結論を出すようなモノではありません。

現在の第三次人工知能ブームでの、人工知能の主たる能力は、機械学習による画像認識や大量データからの特徴抽出や分類という知識処理であり、柔軟な判断や直感といった能力に対しては注力されておらず、現在の道具型人工知能技術に対しては、潜在意識に相当する能力は必ずしも必要とされてはいない。
(p.63)

コンピュータが潜在意識を持つためには「意識」を実装する必要がありますが、今の技術はそこまでは進化していないのです。ここで潜在意識という言葉が出てくるのは、人間の行動の大部分は潜在意識によって実現されていて、顕在的な意識が必要なシーンは限られているという説があるからです。日常生活を振り返ってみれば、いかに多くの行為が惰性で実現していることが分かると思いますが、だからといって何も考えていないわけではないので、そこを AI に任せるのは、それはそれで大変なのです。

次の小ネタは面白いと思いました。

「悲しいから泣くのか? 泣くから悲しいのか?」
(p.49)

まず「悲しい」という感情があって、それから涙が出てくるのか、と思いきや、実際に観察してみると、悲しいと意識する前に涙が出ていることが分かるそうです。ただ、泣くことが悲しい感情へのトリガーになっているのかというと、個人的にはこれは同時、もしくは並行処理ではないかと思います。涙が先に出てくるのは入力に対する起動時間が涙腺の方が短いからに過ぎないのでは。

AI は将来、意識を持つようになるでしょうか。

これに関する疑問としてよく聞かれるのが、「将来人工知能も意識を持つようになるのか?」である。もちろん、ここでの意識とは、一般的に捉えられている意識のことで、顕在意識のことである。そして、筆者の回答としては「YES」である。

私の意見も YES なのですが、視点は栗原さんとは逆を向いているようです。私見としては、人間の意識というのは人間が思っているほど複雑ではない、考えているようで実は何も考えていないので、案外簡単に実装できてしまうのではないか、と考えているのです。考えることがあるとしても、その殆どは他人の猿真似、コピーなのです。従って、猿にも出来るようなレベルなんです。いわんやAIをや。

では、そのような意識を持ったAIは、人間に敵対するようなことが有り得るのか。

自律型人工知能であっても、目的を与えるのは人である。よって、人を殺すような目的を与えなければ大丈夫だと言いたいところだが、そう簡単な話ではない。
(p.111)

例えば、漂流者のパラドックスのような場合を考えてみます。どちらかを殺さないと両方死んでしまうようなケースです。どう解決すべきかというのは哲学的な問題になってしまいますが、

「トロッコ問題」
(p.114)

これも類題で、左の道を選んで老人2人を轢くか、右の道を選んで子供を轢くか、という選択問題です。どっちを助けるか、あるいはどちらを殺すかという問題です。栗原さんはトロッコ問題を解けない問題だとしていますが、これは簡単に解ける問題だと思います。つまり、左の道か右の道か、評価して数値が高かった方を選択すればいいだけのこと。イーブンなら乱数を発生して決めればいいのです。この問題が解けないとしたら、それは考えるのが人工知能ではなく人間だからでしょう。しかも、さらに言えば、そのような問題に実際に直面すれば、人間はこの問題を簡単に解くでしょう。どう考えるかは分かりませんが、結果的に必ずどちらかを選択することになるはずです。

ところで、人工知能兵器を、作らないという協定を作る方向で歯止めをかけよう、という考え方があるそうです。

人工知能がトリガーを引くタイプB型兵器開発には踏み込まないという方針は喜ばしく
(p.152)

これに関しては、私見としては最も危険な思想だと思います。そのような方針を決めても、違反する人達は必ず出てくるからです。それが完成したときに、方針を守っていた人達は対応できず、滅亡してしまうでしょう。残念ながら、武力に対応するためには、同等以上の武力を持つしかない。このことは歴史が証明しています。開発と使用は違うのです。

もし人工知能自身が、それを最適解だと判断したとき、何が起こるでしょうか。

本来、人と人工知能はその能力の性質に明確な違いがあり、お互い不可侵な関係にあるはずが、
(p.161)

私はそうは思いません。人工知能というのはあくまで人と同じ知能であり、それは同じ能力・性質を持つものになると想像しています。なぜなら、人工知能は人間が作っているからです。子供は親に似るのです。

最後に、AI とは関係なさそうですが、途中に出てきた体罰の話題から。

体罰を正当化することはできないが、悪いことをすれば叱られる。負の報酬を受け取るからこそ、悪いことをしなくなるよう学習する。以前は負の報酬として痛い思いをすることも時にはあった。現在の我々はいろいろな意味で、弱くなりつつあるように思えてならない。
(p.125)

この点は、私の想像も栗原さんと同じ方向なのですが、「なりつつある」どころではなく、既に猛烈に弱くなっていると確信しています。


AI兵器と未来社会 キラーロボットの正体
栗原 聡 著
朝日新書
ISBN: 978-4022950215