皆さんこんばんは。ダイコーです。
先日、AIにおける倫理観の問題を取り上げたニュースがありました。
原典はネイチャー。
日本語としてのまとめはcnetJapanがまとめてくれています。
要点としては、
- AIの進化によって車の自動運転が実現されます。
- AIはもちろん事故を避けるようにプログラムされていますが、もし、自動運転の車が、絶対に被害をゼロにできない状況に直面したとき。
- どのような判断をするようにプログラムすべきでしょうか?
という話です。
皆さんはどう思いますか?
具体的な例で考えてみましょうか。
以下の状況で、あなたはどの進路を選びますか?
- 進路Aでは道に飛び出した1人の企業幹部が死ぬ。
- 進路Bでは公園内の5人の浮浪者が死ぬ。
- 進路Cでは運転手だけが死ぬ。
道に飛び出す人は死んで当然、と考える人は進路A、
経済合理性で考える人は進路B、
車の事故は運転者の責任だと考える人は進路Cを選ぶでしょう。
では、設計者はどうすべきなんでしょうか?
この課題の恐ろしい点は、AIがどのように人命を選択するか、を設計者が決めねばならないところです。
設計する人間は「誰が死ぬべきか」を選択する立場にあり、死亡事故の責任の一端を感じることとなります。
挙動について、事前に納得感が得られるのは「多数決」です。民主主義ですね。
しかし、実際に事故が起きたら、多数決はあまり意味をなしません。
設計の仕方に焦点が当てられるでしょう。責任追及はマスコミも飛びつきやすいポイントですし。
『あなたの設計方法によって、何の罪もない私の子供が死にました』なんて言われたとき、設計者はどう答えることが出来るのでしょうか。
日本での高速道路自動化も同じです。
道路の渋滞解消はとんでもない額の経済効果を生みます。年間数百億円単位です。
国土交通省から試算も出ていますので参照して下さい(PDFへの直リンクです)。
それだけ大義のある取り組みです。
しかし、AIを用いた自動化をした場合、その裏には常にAIの弊害やリスクがあります。
そのリスクの原因が設計者にあるとなると、迂闊に設計できません。
cnetによると、原典は下記のように括られています。
自動運転車の開発者にとっての要点は、自動運転車のための倫理指針を定めるのは困難だということだ。自動運転車はどんな代償を払ってでも絶対に事故を避けるべきだと言うのは簡単だ。だが、怪我や死を避けられず、選択を迫られた場合のためのルールを決めるのは難しい。
出典:cnetJapan
操縦者の言うとおりに動く機械であれば、操縦者責任。
しかし、操縦者の言うとおりではない機械は、設計者責任と言われる世の中です。
責任を負わせない仕組み(法令)をつくるか。
責任を発生させない仕組みにするか。
どちらかでしょう。
責任を発生させない仕組みとは、例えば
危機的状況になったときは下記のような音声を発する
「まもなく事故が発生する可能性が高いです。適切な判断をして下さい。AI運転を終了します」
最後は人間が決めて下さい。私はここまでです。とすると。
間に合う間に合わないの問題はありますけどね。
私は、すべてをAIで置き換える=網羅するのは難しいと思っています。
良い技術・良い仕組みが、一つの失敗例を皮切りに世の中から消えていくことは無数にあります。
皆さんも自社の分野で考えてみてください。
- まず考えるべきは、AIをどのように活用出来るでしょうか。
- 次に、AIの課題はどこに表れるでしょうか?
- 最後に、本当に全てがAIに置き換わることはあるでしょうか?
リアルな未来を想像してみて下さい。そこにビジネスのヒントがあります。