人工智能:英国的法律问题
已发表: 2020-07-16英国是欧洲人工智能领域的领导者之一,尤其是在医疗保健领域。 根据麦肯锡全球研究所的数据,人工智能可以在 10 年内推动英国经济增长 22%。
如果你在英国开发一家基于人工智能的初创公司或任何类型的人工智能产品,那么你将比欧洲其他国家处于更好的位置。 该国对创新特别开放,政府热切支持许多举措。 例如,艾伦图灵研究所是人工智能和数据科学的国家实体,而上议院也有自己的人工智能委员会。
这种数据驱动的文化使英国成为重要的人工智能中心。 Coadec 的一份报告表明,每周都有一家新的人工智能初创公司在该国成立。 不过,在开始之前,您应该首先考虑一些事情:法律要求和最常见的 AI 相关法律问题。
由于人工智能是一个新兴的发展领域,它的要求与其他更传统的行业略有不同。 如果您正在寻求法律建议,我们随时为您提供帮助。
以下是需要考虑的一些最重要的人工智能法律问题:
人工智能的法律定义
首先,你如何定义人工智能?
这是问题开始的地方。 一些立法者坚持这种启发式并将人工智能定义为软件和数据的组合。 这听起来很简单,但需要指出的是,我们正在处理比以往任何时候都更复杂的软件和更大的数据量。
其他法律专业人士,如歌德大学的 Jonas Schuett 建议最好避免使用人工智能这个词。 他说,没有符合法律定义要求的人工智能定义。 相反,他建议专注于:
- 某些设计
- 用例
- 考虑到潜在风险的能力
这些建议主要是针对政策制定者的,但它们也可以作为自己的指导方针。 为了做到正确,最好关注人工智能使用的具体案例以及随之而来的风险。
使用基于 AI 的解决方案增强您的产品
学到更多英国人工智能的定义
谈到人工智能的法律定义,英国政府是这样描述的:
[…] 能够执行原本需要人类智能的任务的技术,例如视觉感知、语音识别和语言翻译。
英国议会最近在这个定义中增加了另一个方面。 值得注意的是,人工智能系统具有学习或适应新体验或刺激的能力。
人工智能的关键法律问题
处理大量数据
为了正常工作,人工智能算法需要大量数据。 另一个人工智能法律问题来了:谁拥有数据,谁负责安全? 对于银行或医疗保健等行业的敏感信息,情况变得更加复杂。

目前在英国生效的主要数据安全法案有两种:
数据保护法和 GDPR(通用数据保护条例)
2018 年,《数据保护法》取代了 1998 年的法规。它与 GDPR 一起塑造了英国个人数据的处理方式。
您可能已经知道,它彻底改变了我们在欧盟处理个人数据的方式。 尽管英国脱欧带来了所有变化,但英国企业仍然需要遵守 GDPR,因为他们经常处理其他欧洲客户的数据。
GDPR 附带的一些与 AI 相关的影响包括:
- 公平原则——该目标声称企业可以根据自己的利益处理主体的数据。 有偏差的输入数据是 AI 中的一个大问题——我们将在稍后更详细地介绍这一点,并附上动手示例。
- 目的限制——用户必须有权访问有关您收集其数据的原因的信息。 由于 AI 需要大量信息,因此您需要让您的受众知道您将如何处理它。
- 透明度和信息访问权——您的客户有权访问他们的数据并根据要求要求将其删除。 这被称为被遗忘权。
Royal Free NHS Foundation Trust 和 Google 的 AI 部门 DeepMind 的故事就是一个有趣的例子。 众所周知,这两方之间的合作违反了英国数据保护法。 英国数据隐私机构 ICO 发现,患者没有被告知他们的数据将用于开发人工智能解决方案。
数据匿名化
要在不违法的情况下使用和共享大量数据,您需要先将其匿名化。 匿名数据 是一个术语,用于描述一个人无法链接到一个活生生的个体的信息。 当数据匿名时,英国数据保护法不再适用。
匿名化过程需要摆脱:
- 直接标识符,例如姓名、电子邮件或电话号码
- 可以通过交叉引用揭示个人的间接标识符,例如工作场所和位置
这种做法有助于保护用户的隐私,但删除标识符只是旅程的开始:
伦理问题和偏见
尽管人工智能的名称可能暗示其他方面,但这项技术也不能免于类似人类的偏见。 Sara Wachter-Boettcher 在她的书Technically Wrong中描述了一系列 AI 出现严重错误的案例。
作者证明,虽然人工智能可以非常自主,但它仍然基于某种输入,这并非没有偏见和我们最初的假设。 例如,她描述了Google Photos 算法的案例。 目标是检测图片中的内容,但它有一个严重的限制——它将白皮肤的人视为默认设置。 因此,它很可能会自动将黑人标记为……大猩猩。 其中一位用户发现,该算法认为他们是所有 Google 相册相册中的猿类。
在这种情况下,问题在于输入数据。 神经网络主要在白人模型上训练,这就是它没有捕捉到种族差异的原因。 即使该算法不是明确的种族主义者,它仍然显示出明显的种族偏见。
像这样的案例证明,用外行的话来说,人工智能就是我们创造的。 我们向它提供受我们自己的偏见和限制影响的信息。 Wachter-Boettcher 将她的著作Biased Input, Even More Biased Output中的一个部分命名为。 这个简短的句子描述了人工智能如何加剧潜在的道德问题。
法律挑战
正如我们所提到的,人工智能是自主的,但问题是:谁应对它可能造成的损害负责?
谈到英国的法律法规,自动化系统(例如人工智能算法)在法律面前并不是代理人。 责任在它的创造者手中,例如利益相关者、操作者、设计者或系统的测试者。
在引入自动驾驶汽车等新产品时,人工智能造成的损害的责任问题是一个热门话题。 欧洲议会发布了一份报告草案,其中就民事责任制度及其对人工智能的适用性提出了建议。
议会强调,并不总是可以将具体行动追溯到具体的人工输入或设计。 因此,他们建议责任应基于风险,人工智能系统的部署者应考虑持有责任保险。
在接下来的几年里,我们将看到不同的司法管辖区将如何应对人工智能产品,以确保对任何损害进行适当的赔偿。
人工智能的法律问题:最后的思考
我们希望这份摘要能够帮助您更多地了解英国的法律地位和最常见的 AI 法律问题。
在 Miquido,我们拥有多年为英国市场创建 AI 解决方案的经验。 如果您想讨论适合您业务需求的基于 AI 的解决方案,或者只是提出问题,请随时与我们联系!
特别感谢 WKB – Wiercinsi、Kwiecinski、Baehr 提供的法律提示和技巧,帮助我们撰写本文!