Robots are safe, but...


LineUp-b9 robot,
originally uploaded by scottobear.
先日、エコノミストにロボットの安全性に関する記事が掲載された。ここに初のロボット犠牲者である日本人の名前と年齢が書かれている。え?ロボットの初の犠牲者は日本人だって知ってました? 事故は1981年7月、川崎の工場だったそうだ。この時の情報はインターネットではなかなか見つからないが、ようやっと日経メカニカルの記事の残骸がGoogleキャッシュにあるのを見つけた。
事故は語る/動かないはずのロボットが動き出す(19990401):
1981年の梅雨真っ盛りのじめじめしたころだった。ある工場で,
夜勤の作業者Aが産業用ロボットと工作機械の間に挟まれてしまった(図1)。
見つけた同僚たちは救出するための操作方法が分からず,「緊急事態だから」と産業用ロボットの手首を溶断した。だが,それには時間があまりにかかり過ぎた。助け出したときには既に,Aは絶命していたのである。
で、ここで、SF作家アシモフ(アジモフ)氏(Isaac Asimov)が1950年に書いた「I, robot」に有名な「ロボット工学3原則」の話が出てくる(余談だけど、ホンダのASIMOはアシモフをオマージュしたと噂されている、真偽は不明)。
  1. A robot may not harm a human being, or, through inaction, allow a human being to come to harm.
    ロボットは人間に危害を加えてはならない。また、人間が危害を加えられることを看過してはならない。
  2. A robot must obey the orders given to it by human beings, except where such orders would conflict with the First Law.
    ロボットは、第1条に反しない限り、人間によって与えられた命令に従わねばならない。
  3. A robot must protect its own existence, as long as such protection does not conflict with the First or Second Law.
    ロボットは第1・第2の法に反しない限り、自身の存在を守らなねばならない。
この「人間」っていうのが曲者で、「悪い奴も含まれるのか」とか「複数助けるときには最初に助ける人をどうやって決めるんだ」とか、いろいろ議論があって、humanity(人類、人間性)という言葉を使った第0条が加えられたり、第1条が修正されたりといった経緯を辿っている模様。SFに詳しい人ならよく知っている話だろうが、僕はこのあたりいまいちよくわかりません。動植物には危害を加えていいのかっていうことも個人的にはどう解釈していいのかわからん。

このロボット工学3原則は現実の法律でもないし、ISOやIEEEの規格でもなんもないので、産業用ロボットやASIMOのようなロボットに適用されているわけではない。しかしどうもそうではないらしい。井上博允東京大学名誉教授は、現実に大部分の最新機器で既に適用されている常識的な原則を簡略にロボット工学3原則が包含しているのだ、と述べている。設計・製造側は安全性に関し継続して努力をしているが、全体として見れば、安全性に関しては製造物責任法(PL法)というコンテキストでしか語られていない。現に井上教授は「ロボット保険すら、まだないのです」とも。ちょっと意外。

でも、いろんな面での法制化はそろそろやっとかないとまずい状況なんだなーという気はしてきた。ロボットは全てを予測できるわけではない。というか、知能がまだない。何を知能というかもはっきりしていないと思う。だから、死角なり予測限界が存在する。掃除機ロボットが赤ちゃんと吸い上げたら、誰が責任を負うか?なんていう話に答えるのは難しい。単一用途ではなく、多目的ロボットになればなおさらだ。免責事項で免れる? どうもそう単純ではないようだ。
Trust me, I'm a robot | Economist.com:
Robot safety is likely to surface in the civil courts as a matter of product liability. “When the first robot carpet-sweeper sucks up a baby, who will be to blame?” asks John Hallam, a professor at the University of Southern Denmark in Odense. If a robot is autonomous and capable of learning, can its designer be held responsible for all its actions? Today the answer to these questions is generally “yes”. But as robots grow in complexity it will become a lot less clear cut, he says.

先月、経済産業省が面白い資料を出している。題して、「ロボット政策研究会 報告書(PDF, 1.85MB)」。前半は市場やビジネス化の話だったりするが、後半は安全性の話だ。ロボットメーカーの方々の苦悩が少しわかる。ソフトウェアが組み込まれると動産なのでPL法の対象にならないとかも。おー、それは危ない話かも。初めから100%欠陥の無いソフトウェアを提供するというのは現実には非常に困難であることは業界の人なら誰でも知っている話だ。いずれにせよ、100ページ近いが一読の価値ありと思いますよ、これ。

前日の記事の中で、Christensen博士は「あと5年もすれば、人間はロボットとSEXしてるさ」と言っている。えっ、と思うかもしれないが、ダッチワイフの進化形の話だろう。さもありなん。僕はロボットと言えば、GoogleBotのような検索エンジンロボットを先に思い浮かべてしまうが、これもロボットはロボット。僕らは既にロボット時代の真っ只中に居るのだ。倫理的にはまだこれから議論百出だろうが、性悪説・性善説なんていうのがある人間よりも、ロボットの方が遥かに信じられるという人々が出てくる時代になるだろう。GoogleはGoogleBotによって収集されたデータを特有のアルゴリズムで処理しているわけだが、Yahooなど他とは異なり人間の介在を廃した徹底したコンピュータ指向である、と言う話は最近よく話題になる。そういう意味では、Googleは巨大なロボットだと考えることもできる。Googleの「Do not evil」信仰はロボット信仰(Robot faith)のさきがけと見るのも面白い。

We already know that Google collects data using GoogleBot and processes them with special algorithm. They seem to avoid any participating in search results unlike other search engine companies. If so, we may regard Google itself as a huge robot. Is it interesting to consider "Do-not-evil" faith to be a precedent of robot faith?



[][][]