人工知能の倫理:自動運転車の場合

公開: 2022-05-06

人工知能の倫理に関するケーススタディ–ウェルモの自動運転車。

人工知能、または単にAIは、常に魅力的な(そして少し怖い)概念でした。 しかし、どのように見ても、気づかなくてもAIが日々の活動に大きな役割を果たしていることは間違いありません。

考えてみると、ロボットや自動運転車を思い浮かべますが、Googleで用語を検索するなど、簡単なことをしても存在します。 はい、そうです– AIは、有名な検索エンジンを含むGoogleの多くの製品に深く統合されています。

人工知能の倫理

今日、すべての企業の37%以上が何らかの方法でAIを採用しています。

ただし、AIベースの製品の開発は、単なるテクノロジーを超えています。

企業はまた、人工知能の倫理、つまりAIシステムを設計、構築、使用、および処理する際の道徳的行動の懸念についても懸念しています。 AIベースの製品を開発するときによく発生する多くの質問があります。

AIシステムは倫理的な決定を下すことができますか? 人工知能は道徳的行動の観点からどのような問題を引き起こす可能性がありますか? 非倫理的な状況を防ぐことは可能ですか? AIシステムがミスをするとどうなりますか?

これらの質問に対する簡単な答えはありません。 実際、それらのいくつかは非常に複雑であるため、明確な答えがまったくありません。 これらの問題をよりよく理解するために、今日はウェルモの自動運転車のレンズから人工知能の倫理を調べます。

それでは、それに飛び込みましょう:

人工知能の倫理:自動運転車のジレンマ

2009年にGoogle自動運転車プロジェクトとして始まり、2016年12月に独立した子会社になるまで、技術開発会社Waymoは2018年12月に最初の商用自動運転車サービスを開始しました。

2018年10月までに、自動運転車は公道で1,000万マイル以上の運転を完了し、Carcraftと呼ばれる仮想世界プログラムで驚異的な70億マイルのシミュレーションを完了しました。

人工知能の倫理

しかし、360度のビューを提供するセンサーと、最大300メートル離れた物体を検出できるレーザーを備えた完全な自律性に基づく革新的なテクノロジーで世界を驚かせたにもかかわらず、1,000億ドルを超える価値のある同社は、まだいくつかの重要な問題を解決していません。道徳的な挑戦

これらの倫理的課題を実際の例で説明するために、 Patrick Linによる自動運転車の倫理的ジレンマと呼ばれるこのビデオを見て、MagnaCartaの観点から分析してみましょう。

自動運転車の倫理的ジレンマ

人工知能の倫理:自動運転車の倫理的ジレンマ(ビデオを見る)

この思考実験では、Patrick Linが、道路の四方から箱詰めされた自動運転車が重い物体の落下の脅威にさらされ、重要な決定を下す必要があるという実際的な事例を紹介します。 SUV、オートバイに向かって右に曲がる、またはまっすぐ進み、物体にぶつかる。

この状況で、パトリック・リンは次の道徳に基づいた質問をします:

車はオートバイにぶつかることで乗客の安全を優先するべきですか、曲がらないことで他人への危険を最小限に抑えるべきですか(しかし乗客の命を危険にさらす)、またはSUVにぶつかる必要がありますか? この場合、最も倫理的な決定は何でしょうか?

このメンタルエクササイズで、パトリックリンは、通常の車両を手動で運転している人が決定を下す場合、実際の決定ではなく、パニックに基づく衝動的な反応として解釈される可能性があると述べています。

しかし、自動運転車が事前にプログラムされた状況や状況に基づいて決定を下している場合、それは「事前に計画された殺人」と見なされますか?

起こりうる事故の結果は、プログラマーによって数か月前に決定される予定ですか? 害を最小限に抑えるために、事前にどのような要素を考慮に入れる必要がありますか?

Patrick Linが実施した思考実験には、人工知能の理解、分析、実装の余地がたくさんあります。

このような将来のシナリオを考慮して、自動運転車で成功するためにWaymoが解決しなければならない課題を見てみましょう。

パワーとマシンの決定のバランス

間違いなく、自動運転技術を開発しているWaymoや他の企業にとっての主な課題の1つは、人間と機械の間の力のバランスを決定することです。どの時点で、力を機械から人間に、そして人間から機械に切り替える必要がありますか?

私たちは完全に無条件にそれらに依存することができますか

まだ出現しているテクノロジーのこの段階では、おそらくそうではありません。 これは、ボーイング737 Maxのエチオピアでの最近の墜落事故を見るとさらに明確になります。この場合、失速防止MCASシステムは、センサーの読み取り値が正しくないために飛行機の機首を自動的に押し下げ、パイロットは事実上、マシンのエラー。

ミッションステートメントの例

システムには、人間の介入よりも多くの力と優先順位が与えられていましたか? 人工知能がヒューマンエラーを大幅に削減することは事実ですが、プロセスのある時点でマシンエラーが発生しないという意味ではありません。

個人的な選択と分極化

人工知能の倫理に関する次の反省は、個人の選択と分極化に関係しています。

これは、Magna Cartaに関して最大​​の側面の1つです。これは、専門家のOlaf Groth、Mark Nitzberg、Mark Espositoによって提示された、グローバルAI経済における包括性と公平性のガイドです。

このガイドは、人工知能の倫理に焦点を当てて、成功するAI戦略を開発する際に組織をサポートすることを目的としています。 それは、人間の選択の程度とAI開発への包含についての主要な質問を提起します。

この勇敢な機械能力主義の新しい世界をどのように統治するのでしょうか。 機械は個人的な選択を排除しますか?

人工知能の倫理

個人の選択と二極化はMagnaCartaの重要な側面の一部ですが、自動運転技術は必ずしも人々とその日常生活に強い悪影響を与えるとは限りません。

このタイプのテクノロジーは、このサービスの実質的にすべてのユーザーに利益をもたらす、より良く、より速く、より環境に優しい意思決定を行うという考えで設計されています。 個人の選択がある程度減る可能性はありますが、完全になくなるとは思いません。

判断、差別、偏見

すでに前に説明したように、人工知能を備えた機械は、状況に応じて特定の方法で「反応」するように事前にプログラムされている場合、他の人の幸福を損なう可能性のある安全性について決定を下します

車が重い物体に脅かされている例で見たように、優先順位は全体的な害を最小限に抑えることですか、それとも自動運転車の所有者を救うことですか?

パトリック・リンが尋ねるように、あなたは事故で常にできるだけ多くの命を救う車を選びますか、それともどんな犠牲を払ってもあなたを救う車を選びますか? これらは、人工知能の倫理に関して生じる質問のほんの一部です。

グーグル人工知能

さらに、車がプログラマーの個人的な履歴、素因、および目に見えないバイアスに基づいてデータの分析を開始した場合はどうなるでしょうか。 自動運転車が下す決定が常に完全に客観的であり、誰がそれらを決定するかという保証はありますか?

プログラマー、企業、あるいは政府でさえ? アルゴリズムと特定のパターン認識に基づく機械識別の可能性は何ですか? この場合、自動運転技術はまだ準拠していないと思います

結論

結論として、これらの倫理的な質問に答えて解決するための鍵は、機械と人間の間の力のバランスを取り、機械(この場合は自動運転車)が生命に依存するようにすることができる範囲を決定することであると私は信じています決定。

技術はまだほとんど出現していないので、機械が進化し、すべての人への害を最小限に抑える客観的な決定を下せるようになる一方で、人間は道徳に基づいた決定を下す力と優先順位を持っているべきだと思います。

人工知能の倫理についてどう思いますか? 人間は機械を支配するべきですか、機械は人間を支配するべきですか、それともよく計算されたバランスがなければなりませんか? 以下のコメントで教えてください! この記事が気に入った場合は、機械学習がマーケティングを改善できる12の方法もお勧めです。