人工智能倫理:自動駕駛汽車的案例
已發表: 2022-05-06人工智能倫理案例研究——Welmo 的自動駕駛汽車。
人工智能,或簡稱 AI,一直是一個迷人(也有點嚇人)的概念。 然而,無論你怎麼看,不可否認,人工智能在我們的日常活動中發揮著巨大的作用,即使我們有時沒有意識到這一點。
當我們想到它時,我們會想到機器人和自動駕駛汽車——但即使我們做一些簡單的事情,比如在谷歌上查找一個術語,它也存在。 是的,沒錯——人工智能深度集成在谷歌的許多產品中,包括其著名的搜索引擎。
今天,超過 37% 的企業以一種或另一種方式使用人工智能。
然而,基於人工智能的產品的開發不僅僅是技術。
公司還擔心人工智能倫理——在設計、構建、使用和處理人工智能係統時對道德行為的關注。 在開發基於 AI 的產品時,經常會出現很多問題:
人工智能係統可以做出符合道德的決定嗎? 人工智能在道德行為方面會造成哪些問題? 是否有可能防止不道德的情況發生? 當人工智能係統出錯時會發生什麼?
這些問題沒有一個簡單的答案。 事實上,其中一些非常複雜,以至於根本沒有任何明確的答案。 為了更好地理解這些問題,今天我們將從 Welmo 的自動駕駛汽車的角度來研究人工智能倫理。
那麼,讓我們深入研究一下:
人工智能倫理:自動駕駛汽車的困境
技術開發公司 Waymo 最初是 2009 年的谷歌自動駕駛汽車項目,直到 2016 年 12 月成為獨立子公司,於 2018 年 12 月推出了其首個商用自動駕駛汽車服務。
到 2018 年 10 月,自動駕駛汽車已經在公共道路上完成了超過 1000 萬英里的行駛,並在一個名為 Carcraft 的虛擬世界程序中完成了驚人的 70 億英里的模擬里程。
然而,儘管基於完全自主的革命性技術、可提供 360 度視角的傳感器和能夠檢測 300 米外物體的激光,令世界震驚,但這家價值超過 1000 億美元的公司尚未解決一些重要問題道德挑戰。
為了用一個實際的例子來解釋這些倫理挑戰,讓我們看一下Patrick Lin 的這個名為“自動駕駛汽車的倫理困境”的視頻,並從大憲章的角度來分析它:
人工智能倫理:自動駕駛汽車的倫理困境(觀看視頻)
在這個思想實驗中,Patrick Lin 為我們展示了一個實際案例,一輛自動駕駛汽車,在路上被四面八方包圍,受到重物墜落的威脅,需要做出重要決定——左轉進入SUV,直接轉向摩托車,或者繼續直行並被物體擊中。
在這種情況下,Patrick Lin 提出了以下基於道德的問題:
汽車應該通過撞摩托車來優先考慮乘客的安全,通過不急轉彎(但冒著乘客生命危險)來盡量減少對他人的危險,還是撞到 SUV? 在這種情況下,最合乎道德的決定是什麼?
在這個心理練習中,Patrick Lin 表示,如果決定是由手動駕駛普通車輛的人做出的,它可能被解釋為基於恐慌的衝動反應,而不是實際的決定。
但是,如果自動駕駛汽車根據預先設定的情況和情況做出決定,這是否會被視為“預謀殺人”?
程序員會提前幾個月確定可能發生的事故的結果嗎? 應該事先考慮哪些因素才能將傷害降到最低?
Patrick Lin 進行的思想實驗為人工智能的理解、分析和實現留下了很大的空間。

考慮到像這樣的未來可能的場景,讓我們看看 Waymo 必須解決哪些挑戰才能在其自動駕駛汽車上取得成功。
功率與機器決策的平衡
毫無疑問,Waymo 和其他開發自動駕駛技術的公司面臨的主要挑戰之一仍然是確定人與機器之間的權力平衡——權力應該在什麼時候從機器切換到人,從人切換到機器?
我們能完全無條件地依賴它們嗎?
在這個階段仍然是新興技術,可能不是。 當查看最近在埃塞俄比亞發生的波音 737 Max 墜機事件時,這一點變得更加清楚,由於傳感器讀數不正確,防失速 MCAS 系統自動迫使飛機機頭向下,使飛行員幾乎無法做任何事情來糾正機器的錯誤。
系統是否被賦予了過多的權力和優先於人為乾預的優先權? 雖然人工智能確實在很大程度上減少了人為錯誤,但這並不意味著機器錯誤不會在流程的某個階段發生。
個人選擇和兩極分化
人工智能倫理的下一個反思與個人選擇和兩極分化有關。
這是 Magna Carta 最重要的方面之一——全球人工智能經濟中的包容性和公平性指南,由專家 Olaf Groth、Mark Nitzberg 和 Mark Esposito 提出。
本指南旨在支持組織製定成功的人工智能戰略,重點關注人工智能倫理。 它提出了關於人工智能發展中人類選擇和包容程度的主要問題。
我們將如何管理這個勇敢的機器精英新世界? 機器會消除個人選擇嗎?
雖然個人選擇和兩極分化是《大憲章》的一些關鍵方面,但自動駕駛技術不一定會對人們及其日常生活產生強烈的負面影響。
這種技術的設計理念是做出更好、更快、更環保的決策,最終使該服務的幾乎所有用戶受益。 它可能會在一定程度上減少個人選擇,但我認為它不會完全消除它。
判斷、歧視和偏見
正如我們之前已經討論過的,如果機器已經預先編程為根據情況以某種方式“反應”,那麼具有人工智能的機器將做出關於我們安全的決定,這可能會危及他人的福祉。
正如我們在汽車受到重物威脅的例子中看到的那樣,優先考慮的是盡量減少整體傷害,還是拯救自動駕駛汽車的車主?
正如 Patrick Lin 所問,你會選擇一輛在事故中總是能挽救盡可能多生命的汽車,還是不惜一切代價拯救你的汽車? 這些只是人工智能倫理中出現的一些問題。
此外,如果汽車開始根據程序員的個人歷史、傾向和不可見的偏見分析數據,會發生什麼? 是否可以保證自動駕駛汽車做出的決定總是完全客觀的,誰來決定?
程序員、公司,甚至政府? 基於算法和某種模式識別的機器識別的可能性有多大? 在這種情況下,我認為自動駕駛技術尚不合規。
結論
總之,我認為回答和解決這些倫理問題的關鍵是平衡機器和人類之間的力量,並決定機器(在這種情況下,自動駕駛汽車)能夠使生活依賴於多大程度決定。
我認為,由於這項技術還幾乎沒有出現,人類應該有能力和優先權做出基於道德的決定,而機器正在發展並能夠做出客觀的決定,以盡量減少對每個人的傷害。
您如何看待人工智能倫理? 人類應該統治機器,機器統治人類,還是必須有一個精心計算的平衡? 在下面的評論中告訴我! 如果你喜歡這篇文章,你可能也會喜歡機器學習可以改善營銷的 12 種方法。