인공 지능 윤리: 자율 주행 자동차의 사례

게시 됨: 2022-05-06

인공 지능 윤리에 대한 사례 연구 – Welmo의 자율 주행 자동차.

인공 지능, 또는 간단히 AI는 항상 매혹적인(그리고 약간 무서운) 개념이었습니다. 그러나 아무리 생각해도 AI가 우리의 일상 활동에 큰 역할을 한다는 사실은 부정할 수 없습니다.

우리는 그것에 대해 생각할 때 로봇과 자율 주행 자동차를 생각하지만 Google에서 용어를 찾는 것과 같이 간단한 일을 할 때도 존재합니다. 그렇습니다. AI는 유명한 검색 엔진을 포함하여 Google의 많은 제품에 깊이 통합되어 있습니다.

인공 지능 윤리

오늘날 모든 기업의 37% 이상이 어떤 방식으로든 AI를 사용하고 있습니다.

그러나 AI 기반 제품의 개발은 기술 그 이상입니다.

기업은 또한 AI 시스템을 설계, 구축, 사용 및 처리할 때 도덕적 행동에 대한 우려인 인공 지능 윤리에 대해 걱정합니다. AI 기반 제품을 개발할 때 자주 발생하는 많은 질문이 있습니다.

AI 시스템이 윤리적 결정을 내릴 수 있습니까? 인공 지능은 도덕적 행동 측면에서 어떤 문제를 일으킬 수 있습니까? 비윤리적인 상황을 예방할 수 있습니까? AI 시스템이 실수를 하면 어떻게 되나요?

이러한 질문에 대한 쉬운 대답은 없습니다. 사실, 그들 중 일부는 너무 복잡해서 결정적인 답이 전혀 없습니다 . 이러한 문제를 더 잘 이해하기 위해 오늘 우리는 웰모의 자율주행차의 렌즈에서 인공지능 윤리에 대해 알아볼 것입니다.

그럼 바로 들어가 보겠습니다.

인공 지능 윤리: 자율 주행 자동차의 딜레마

2009년 구글 자율주행차 프로젝트로 출발해 2016년 12월 독립 자회사가 된 기술개발기업 웨이모는 2018년 12월 첫 상용 자율주행차 서비스를 출시했다.

2018년 10월까지 자율주행차는 공공 도로에서 1천만 마일 이상을 주행했고 Carcraft라는 가상 세계 프로그램에서 놀라운 70억 마일을 시뮬레이션했습니다.

인공 지능 윤리

그러나 360도 뷰를 제공하는 센서와 최대 300미터 떨어진 물체를 감지할 수 있는 레이저로 완전한 자율성을 기반으로 한 혁신적인 기술로 세상을 놀라게 했음에도 불구하고 1,000억 달러 이상의 가치가 있는 회사는 아직 몇 가지 중요한 문제를 해결하지 못하고 있습니다. 도덕적 도전 .

이러한 윤리적 문제를 실용적인 예에서 설명하기 위해 Patrick Lin의 자율 주행 자동차의 윤리적 딜레마 라는 동영상을 보고 마그나 카르타의 관점에서 분석해 보겠습니다 .

자율주행차의 윤리적 딜레마

인공 지능 윤리: 자율 주행 자동차의 윤리적 딜레마 (동영상 보기)

이 사고 실험에서 Patrick Lin은 도로의 사방에서 상자가 있는 자율 주행 자동차가 무거운 물체의 추락으로 위협을 받고 중요한 결정을 내려야 하는 실제 사례를 제시합니다. SUV, 오토바이로 우회전하거나 계속 직진하다가 물체에 치입니다.

이 상황에서 Patrick Lin은 다음과 같은 도덕적 기반 질문을 합니다.

자동차가 오토바이를 치어 승객의 안전을 우선시해야 할까요, 방향을 바꾸지 않아 다른 사람의 위험을 최소화해야 할까요(하지만 승객의 생명을 위험에 빠뜨릴 수도 있음), 아니면 SUV와 충돌해야 할까요? 이 경우 가장 윤리적인 결정은 무엇입니까?

이 정신 훈련에서 Patrick Lin은 일반 차량을 수동으로 운전하는 사람이 결정을 내리는 경우 실제 결정이 아니라 공황 기반의 충동적인 반응으로 해석될 수 있다고 말합니다.

하지만 자율주행차가 사전에 프로그래밍된 상황과 상황에 따라 의사결정을 한다면 ' 미리 계획된 살인 '으로 볼 수 있을까?

가능한 사고의 결과는 프로그래머가 몇 달 전에 미리 결정합니까? 피해를 최소화하기 위해 사전에 어떤 요소를 고려해야 합니까?

Patrick Lin이 수행한 사고 실험은 인공 지능의 이해, 분석 및 구현을 위한 많은 여지를 남깁니다.

이와 같은 가능한 미래 시나리오를 고려하여 Waymo가 자율주행차로 성공하기 위해 해결해야 할 과제는 무엇인지 살펴보겠습니다.

힘과 기계 결정의 균형

의심할 여지 없이 Waymo와 자율 주행 기술을 개발하는 다른 회사의 주요 과제 중 하나는 사람과 기계 간의 전력 균형을 결정하는 것입니다 . 전원이 기계에서 사람으로, 사람에서 기계로 전환되어야 하는 시점은?

우리 는 그들에게 완전하고 무조건적으로 의존할 수 있습니까 ?

아직 부상하는 기술의 이 단계에서는 아마도 그렇지 않을 것입니다. 이는 최근 에티오피아에서 발생한 보잉 737 맥스의 추락 사고를 보면 더욱 분명해집니다. 이 사고에서는 실속 방지 MCAS 시스템이 잘못된 센서 판독으로 인해 자동으로 비행기의 기수를 아래로 내리게 하여 조종사가 문제를 수정하기 위해 사실상 아무 것도 할 수 없게 되었습니다. 기계의 오류.

사명 선언문 예

시스템에 너무 많은 권한 과 인간 개입보다 우선 순위가 부여되었습니까? 인공 지능이 사람의 실수를 크게 줄이는 것은 사실이지만, 프로세스의 어느 시점에서 기계 오류가 발생하지 않는다는 의미는 아닙니다.

개인의 선택과 양극화

인공 지능 윤리에 관한 다음 반성은 개인의 선택과 편파화와 관련이 있습니다.

이것은 마그나 카르타와 관련하여 가장 큰 측면 중 하나입니다. 전문가 Olaf Groth, Mark Nitzberg 및 Mark Esposito가 제시한 글로벌 AI 경제의 포괄성과 공정성을 위한 가이드입니다.

이 가이드는 인공 지능 윤리에 중점을 두고 성공적인 AI 전략을 개발하는 조직을 지원하는 것을 목적으로 합니다. 이는 인간의 선택과 AI 개발의 포함 정도에 대한 주요 질문을 제기합니다.

기계 능력주의라는 이 용감하고 새로운 세계를 어떻게 지배할 것인가? 기계가 개인의 선택을 없앨까요?

인공 지능 윤리

개인의 선택과 양극화가 마그나 카르타의 주요 측면 중 일부이지만, 자율 주행 기술이 반드시 사람들과 일상 생활에 강한 부정적인 영향을 미치는 것은 아닙니다.

이러한 유형의 기술은 이 서비스의 실질적으로 모든 사용자에게 이익이 되는 더 나은, 더 빠르고 더 환경 친화적인 결정을 내리는 아이디어로 설계되었습니다. 개인의 선택을 어느 정도 줄일 수는 있지만 완전히 없앨 수는 없다고 생각합니다.

판단, 차별 및 편견

앞에서 이미 논의했듯이 인공 지능 이 있는 기계는 상황에 따라 특정 방식으로 "반응"하도록 미리 프로그래밍되어 있는 경우 다른 사람의 복지를 손상시킬 수 있는 우리의 안전에 대한 결정을 내립니다.

자동차가 무거운 물체에 위협을 받는 예에서 보았듯이, 전체 피해를 최소화하는 것이 우선 순위입니까, 아니면 자율 주행 차량의 소유자를 구하는 것이 우선입니까?

Patrick Lin이 묻는 것처럼, 사고 시 항상 최대한 많은 생명을 구하는 자동차를 선택하시겠습니까, 아니면 어떤 희생을 치르더라도 귀하를 구할 수 있는 자동차를 선택하시겠습니까? 이것은 인공 지능 윤리와 관련하여 발생하는 질문 중 일부일 뿐입니다.

구글 인공지능

게다가 자동차가 프로그래머의 개인 이력, 성향, 보이지 않는 편견을 기반으로 데이터를 분석하기 시작하면 어떻게 될까요? 자율주행차가 내리는 결정이 항상 완전히 객관적이라는 보장이 있습니까? 누가 결정할까요?

프로그래머, 회사, 심지어 정부까지? 알고리즘과 특정 패턴 인식에 기반한 기계 식별 가능성은 무엇입니까? 이런 경우에는 아직 자율주행 기술이 호환되지 않는다고 생각합니다 .

결론

결론적으로 저는 이러한 윤리적 질문에 답하고 해결하는 열쇠가 기계와 인간 사이의 힘의 균형을 맞추고 기계(이 경우 자율주행차)가 생명을 좌우할 수 있는 범위를 결정하는 것이라고 믿습니다. 결정.

나는 기술이 아직 거의 등장하지 않았기 때문에 인간이 도덕적 기반 결정을 내릴 수 있는 힘과 우선 순위를 가져야 하고 기계가 진화하고 모든 사람의 피해를 최소화하는 객관적인 결정을 내릴 수 있게 되어야 한다고 생각합니다.

인공지능 윤리에 대해 어떻게 생각하세요? 인간이 기계 위에 군림해야 합니까, 기계가 인간 위에 군림해야 합니까, 아니면 잘 계산된 균형이 있어야 합니까? 아래 의견에 알려주십시오! 이 기사가 마음에 든다면 기계 학습으로 마케팅을 개선할 수 있는 12가지 방법도 마음에 드실 것입니다.