ここに、哲学問題として非常に有名な「トロッコ問題」があります。この問題には様々なバリエーションがありますが、一般的には「暴走するトロッコの道が、先の方面で二つの道に分岐している。あなたにはその分岐を決定する力がある。そのそれぞれの分岐先には、別々の人間がいる。どちらかを犠牲にして、どちらを助けなければならない。あなたはどちらの道を選ぶのか」といった内容が提示されます。例えば、分岐Aには子供が三人、分岐Bには大人が二人いたとします。あなたは、どちらをトロッコの暴走から守るか、その選択をしなければなりません。あなたなら、どちらの道を選びますか?
この問題を自動運転のAIの倫理的思考と結びつけた実験があります。マサチューセッツ工科大学の「モラル・マシーン・プロジェクト」です。通行者の年齢・性別・種別(人または犬・猫など)など、条件を色々と交差させながら、約300万人が分岐選択の意思を確認しました。この統計の結果としては、「ドライバーが死亡したとしても、通行人を救う自動運転車を選ぶ」という傾向がもっとも高い事が判明しました。では、この人間的思考をそのまま自動運転AIに組み込み、それらに「運命の選別」を行うように組み込めば良い、という事になるのでしょうか。もちろん、答えは否。どんなにそれが合理的な選別を下せるAIであったとしても、運転者にとっては自分の安全を守る事を最優先にして欲しいはずです。
医療に適用されるAIにおいても、同様の問題が突き付けられます。仮に、医療AIがある患者を診断して、治療方法Aの成功率は70%、治療方法Bの成功率は90%だとしましょう。そして、Aは比較的緩やかに時間を掛けながら治療を進めるもので、Bは急激な外科治療と苦痛を伴いながら治療を進めるものとしましょう。その優秀な医療AIは、合理的に運命の選別を始めて、Bを選択するかもしれません。しかし、患者にとって、それは本当に幸せな事でしょうか。確率や合理性だけでは把握しきれない、人間の想いや信念というものが、そこに存在するのではないでしょうか。このように、人間が議論しなければならない倫理的問題が山積しています。これが、AIが「全知全能の神ゼウス」ではないという、ひとつの理由です。
まだ、私たちは私たちの運命を自分自身で選別しなければなりません。よって、現時点の私たちがAIに期待するのは「判断」です。より正確であり、よりスピーティーに行われる、判断。それが、現代の私たちが必要とする「正しいAI」「在るべきAI」の姿となります。