人工智能伦理:自动驾驶汽车的案例
已发表: 2022-05-06人工智能伦理案例研究——Welmo 的自动驾驶汽车。
人工智能,或简称 AI,一直是一个迷人(也有点吓人)的概念。 然而,无论你怎么看,不可否认,人工智能在我们的日常活动中发挥着巨大的作用,即使我们有时没有意识到这一点。
当我们想到它时,我们会想到机器人和自动驾驶汽车——但即使我们做一些简单的事情,比如在谷歌上查找一个术语,它也存在。 是的,没错——人工智能深度集成在谷歌的许多产品中,包括其著名的搜索引擎。
今天,超过 37% 的企业以一种或另一种方式使用人工智能。
然而,基于人工智能的产品的开发不仅仅是技术。
公司还担心人工智能伦理——在设计、构建、使用和处理人工智能系统时对道德行为的关注。 在开发基于 AI 的产品时,经常会出现很多问题:
人工智能系统可以做出符合道德的决定吗? 人工智能在道德行为方面会造成哪些问题? 是否有可能防止不道德的情况发生? 当人工智能系统出错时会发生什么?
这些问题没有一个简单的答案。 事实上,其中一些非常复杂,以至于根本没有任何明确的答案。 为了更好地理解这些问题,今天我们将从 Welmo 的自动驾驶汽车的角度来研究人工智能伦理。
那么,让我们深入研究一下:
人工智能伦理:自动驾驶汽车的困境
技术开发公司 Waymo 最初是 2009 年的谷歌自动驾驶汽车项目,直到 2016 年 12 月成为独立子公司,于 2018 年 12 月推出了其首个商用自动驾驶汽车服务。
到 2018 年 10 月,自动驾驶汽车已经在公共道路上完成了超过 1000 万英里的行驶,并在一个名为 Carcraft 的虚拟世界程序中完成了惊人的 70 亿英里的模拟里程。
然而,尽管基于完全自主的革命性技术、可提供 360 度视角的传感器和能够检测 300 米外物体的激光,令世界震惊,但这家价值超过 1000 亿美元的公司尚未解决一些重要问题道德挑战。
为了用一个实际的例子来解释这些伦理挑战,让我们看一下Patrick Lin 的这个名为“自动驾驶汽车的伦理困境”的视频,并从大宪章的角度来分析它:
人工智能伦理:自动驾驶汽车的伦理困境(观看视频)
在这个思想实验中,Patrick Lin 为我们展示了一个实际案例,一辆自动驾驶汽车,被从四面八方包围在路上,受到重物坠落的威胁,需要做出一个重要的决定——左转驶入SUV,直接转向摩托车,或者继续直行并被物体击中。
在这种情况下,Patrick Lin 提出了以下基于道德的问题:
汽车应该通过撞摩托车来优先考虑乘客的安全,通过不急转弯(但冒着乘客生命危险)来尽量减少对他人的危险,还是撞到 SUV? 在这种情况下,最合乎道德的决定是什么?
在这个心理练习中,Patrick Lin 表示,如果决定是由手动驾驶普通车辆的人做出的,它可能被解释为基于恐慌的冲动反应,而不是实际的决定。
但是,如果自动驾驶汽车根据预先设定的情况和情况做出决定,这是否会被视为“预谋杀人”?
程序员会提前几个月确定可能发生的事故的结果吗? 应该事先考虑哪些因素才能将伤害降到最低?
Patrick Lin 进行的思想实验为人工智能的理解、分析和实现留下了很大的空间。

考虑到像这样的未来可能的场景,让我们看看 Waymo 必须解决哪些挑战才能在其自动驾驶汽车上取得成功。
功率与机器决策的平衡
毫无疑问,Waymo 和其他开发自动驾驶技术的公司面临的主要挑战之一仍然是确定人与机器之间的权力平衡——权力应该在什么时候从机器切换到人,从人切换到机器?
我们能完全无条件地依赖它们吗?
在这个阶段仍然是新兴技术,可能不是。 当查看最近在埃塞俄比亚发生的波音 737 Max 坠机事件时,这一点变得更加清楚,由于传感器读数不正确,防失速 MCAS 系统自动迫使飞机机头向下,使飞行员几乎无法做任何事情来纠正机器的错误。
系统是否被赋予了过多的权力和优先于人为干预的优先权? 虽然人工智能确实在很大程度上减少了人为错误,但这并不意味着机器错误不会在流程的某个阶段发生。
个人选择和两极分化
人工智能伦理的下一个反思与个人选择和两极分化有关。
这是 Magna Carta 最重要的方面之一——全球人工智能经济中的包容性和公平性指南,由专家 Olaf Groth、Mark Nitzberg 和 Mark Esposito 提出。
本指南旨在支持组织制定成功的人工智能战略,重点关注人工智能伦理。 它提出了关于人工智能发展中人类选择和包容程度的主要问题。
我们将如何管理这个勇敢的机器精英新世界? 机器会消除个人选择吗?
虽然个人选择和两极分化是《大宪章》的一些关键方面,但自动驾驶技术不一定会对人们及其日常生活产生强烈的负面影响。
这种技术的设计理念是做出更好、更快、更环保的决策,最终使该服务的几乎所有用户受益。 它可能会在一定程度上减少个人选择,但我认为它不会完全消除它。
判断、歧视和偏见
正如我们之前已经讨论过的,如果机器已经预先编程为根据情况以某种方式“反应”,那么具有人工智能的机器将做出关于我们安全的决定,这可能会损害他人的福祉。
正如我们在汽车受到重物威胁的例子中看到的那样,优先考虑的是尽量减少整体伤害,还是拯救自动驾驶汽车的车主?
正如 Patrick Lin 所问,你会选择一辆在事故中总是能挽救尽可能多生命的汽车,还是不惜一切代价拯救你的汽车? 这些只是人工智能伦理中出现的一些问题。
此外,如果汽车开始根据程序员的个人历史、倾向和不可见的偏见分析数据,会发生什么? 是否可以保证自动驾驶汽车做出的决定总是完全客观的,谁来决定?
程序员、公司,甚至政府? 基于算法和某种模式识别的机器识别的可能性有多大? 在这种情况下,我认为自动驾驶技术尚不合规。
结论
总之,我认为回答和解决这些伦理问题的关键是平衡机器和人类之间的力量,并决定机器(在这种情况下,自动驾驶汽车)能够在多大程度上依赖于生活决定。
我认为,由于这项技术还几乎没有出现,人类应该有权力和优先权来做出基于道德的决定,而机器正在进化并能够做出客观的决定,以最大限度地减少对每个人的伤害。
您如何看待人工智能伦理? 人类应该统治机器,机器统治人类,还是必须有一个精心计算的平衡? 在下面的评论中告诉我! 如果你喜欢这篇文章,你可能也会喜欢机器学习可以改善营销的 12 种方法。