Etyka sztucznej inteligencji: przypadek autonomicznych samochodów
Opublikowany: 2022-05-06Studium przypadku dotyczące etyki związanej ze sztuczną inteligencją – autonomiczne samochody firmy Welmo.
Sztuczna inteligencja, czyli po prostu sztuczna inteligencja, zawsze była fascynującą (i nieco przerażającą) koncepcją. Jednak bez względu na to, jak na to spojrzysz, nie można zaprzeczyć, że sztuczna inteligencja odgrywa ogromną rolę w naszych codziennych działaniach, nawet jeśli czasami nie zdajemy sobie z tego sprawy.
Kiedy o tym myślimy, myślimy o robotach i samojezdnych samochodach – ale jest to obecne nawet wtedy, gdy robimy coś prostego, na przykład szukanie terminu w Google. Tak, zgadza się – sztuczna inteligencja jest głęboko zintegrowana z wieloma produktami Google, w tym ze słynną wyszukiwarką.
Obecnie ponad 37% wszystkich firm wykorzystuje sztuczną inteligencję w taki czy inny sposób.
Jednak rozwój produktów opartych na sztucznej inteligencji wykracza poza samą technologię.
Firmy martwią się również etyką sztucznej inteligencji – troską o moralne zachowanie podczas projektowania, budowania, używania i traktowania systemów AI. Podczas opracowywania produktów opartych na sztucznej inteligencji często pojawia się wiele pytań:
Czy systemy AI mogą podejmować decyzje etyczne? Jakie problemy może powodować sztuczna inteligencja w zakresie zachowań moralnych? Czy można zapobiec nieetycznym sytuacjom? Co się dzieje, gdy system AI popełni błąd?
Nie ma łatwej odpowiedzi na te pytania. W rzeczywistości niektóre z nich są tak skomplikowane, że nie mają w ogóle żadnych ostatecznych odpowiedzi . Aby lepiej zrozumieć te kwestie, dziś przyjrzymy się etyce sztucznej inteligencji z perspektywy autonomicznych samochodów Welmo.
Więc przejdźmy do tego:
Etyka sztucznej inteligencji: dylemat samochodów autonomicznych
Rozpoczęła się jako Google Self-Driving Car Project w 2009 roku, a następnie stała się samodzielną spółką zależną w grudniu 2016 roku. Firma zajmująca się rozwojem technologii Waymo uruchomiła swoją pierwszą komercyjną usługę autonomicznego samochodu w grudniu 2018 roku.
Do października 2018 r. autonomiczny samochód przejechał ponad 10 milionów mil po drogach publicznych i zdumiewające 7 miliardów mil symulacji w programie wirtualnego świata o nazwie Carcraft.
Jednak pomimo oszałamiającej świata rewolucyjną technologią opartą na pełnej autonomii z czujnikami zapewniającymi widok 360 stopni i laserami, które są w stanie wykryć obiekty z odległości do 300 metrów, firma wyceniana na ponad 100 miliardów dolarów ma jeszcze do rozwiązania niektóre ważne wyzwania moralne .
Aby wyjaśnić te wyzwania etyczne na praktycznym przykładzie, spójrzmy na ten film zatytułowany Etyczny dylemat samojeżdżących samochodów autorstwa Patricka Lina i przeanalizujmy go z perspektywy Magna Carta:
Etyka sztucznej inteligencji: dylemat etyczny autonomicznych samochodów (obejrzyj wideo)
W tym eksperymencie myślowym Patrick Lin przedstawia nam praktyczny przypadek, w którym samojezdny samochód, zapchany ze wszystkich stron na drodze, jest zagrożony upadkiem ciężkiego przedmiotu i musi podjąć ważną decyzję – skręcić w lewo SUV, wjedź prosto w motocykl lub jedź dalej prosto i zostań uderzony przez obiekt.
W tej sytuacji Patrick Lin zadaje następujące moralne pytanie:
Czy samochód powinien nadać priorytet bezpieczeństwu pasażera uderzając w motocykl, minimalizować zagrożenie dla innych, nie skręcając (ale ryzykując życie pasażera), czy uderzając w SUV-a? Jaka byłaby najbardziej etyczna decyzja w tym przypadku?
W tym ćwiczeniu mentalnym Patrick Lin stwierdza, że jeśli decyzja ma zostać podjęta przez osobę ręcznie prowadzącą zwykły pojazd, może to być interpretowane jako reakcja na panikę, impulsywna, a nie rzeczywista decyzja.
Jednak w przypadku, gdy pojazd autonomiczny podejmuje decyzję na podstawie wcześniej zaprogramowanych sytuacji i okoliczności, czy byłoby to uważane za „ zabójstwo z premedytacją ”?
Czy skutki ewentualnych wypadków będą ustalane z kilkumiesięcznym wyprzedzeniem przez programistów? Jakie czynniki należy wcześniej wziąć pod uwagę, aby zminimalizować szkody?
Eksperyment myślowy przeprowadzony przez Patricka Lin pozostawia wiele miejsca na zrozumienie, analizę i implementację sztucznej inteligencji.
Biorąc pod uwagę możliwe przyszłe scenariusze, takie jak ten, przyjrzyjmy się wyzwaniom, jakie Waymo będzie musiało rozwiązać, aby odnieść sukces dzięki samojezdnym samochodom.

Równowaga mocy i decyzji dotyczących maszyn
Niewątpliwie jednym z głównych wyzwań dla Waymo i innych firm rozwijających technologię autonomicznej jazdy pozostaje określenie równowagi sił między ludźmi a maszynami – w którym momencie moc powinna przełączyć się z maszyn na ludzi, a z ludzi na maszyny?
Czy kiedykolwiek możemy być od nich całkowicie i bezwarunkowo zależni?
Na tym etapie wciąż rozwijającej się technologii prawdopodobnie nie. Staje się to jeszcze wyraźniejsze, gdy spojrzymy na niedawną katastrofę Boeinga 737 Max w Etiopii, gdzie system zapobiegający przeciąganiu MCAS automatycznie opuścił dziób samolotu z powodu nieprawidłowych odczytów czujników, przez co piloci praktycznie nie byli w stanie zrobić nic, aby poprawić błąd maszyny.
Czy systemowi przyznano zbyt dużą władzę i pierwszeństwo przed ludzką interwencją? Chociaż prawdą jest, że sztuczna inteligencja w ogromnym stopniu redukuje błędy ludzkie, nie oznacza to, że błąd maszyny nie wystąpi w pewnym momencie procesu.
Osobisty wybór i polaryzacja
Kolejna refleksja, jeśli chodzi o etykę sztucznej inteligencji, wiąże się z osobistym wyborem i polatyzacji.
Jest to jeden z największych aspektów Magna Carta – przewodnika po inkluzywności i uczciwości w globalnej gospodarce AI, przedstawionego przez ekspertów Olafa Grotha, Marka Nitzberga i Marka Esposito.
Ten przewodnik ma na celu wspieranie organizacji w opracowywaniu skutecznej strategii sztucznej inteligencji, z naciskiem na etykę dotyczącą sztucznej inteligencji. Rodzi to poważne pytania dotyczące stopnia ludzkiego wyboru i włączenia w rozwój sztucznej inteligencji.
Jak mamy zarządzać tym nowym, wspaniałym światem maszynowej merytokracji? Czy maszyny wyeliminują osobisty wybór?
Podczas gdy osobisty wybór i polaryzacja są jednymi z kluczowych aspektów Magna Carta, technologia autonomicznej jazdy niekoniecznie musi mieć silny negatywny wpływ na ludzi i ich codzienne życie.
Tego typu technologia została zaprojektowana z myślą o podejmowaniu lepszych, szybszych i bardziej przyjaznych dla środowiska decyzji, które przyniosą korzyści praktycznie wszystkim użytkownikom tej usługi. Może to do pewnego stopnia ograniczyć osobisty wybór, ale nie sądzę, że całkowicie go wyeliminuje.
Wyroki, dyskryminacja i uprzedzenia
Jak już wcześniej mówiliśmy, maszyny ze sztuczną inteligencją będą podejmować decyzje dotyczące naszego bezpieczeństwa , które mogą zagrażać dobremu samopoczuciu innych, jeśli zostały już wcześniej zaprogramowane do „reagowania” w określony sposób w zależności od sytuacji.
Jak widzieliśmy na przykładzie samochodu zagrożonego ciężkim przedmiotem, czy priorytetem byłoby zminimalizowanie ogólnej szkody, czy też uratowanie właściciela autonomicznego pojazdu?
Jak pyta Patrick Lin, czy wybrałbyś samochód, który zawsze ratuje jak najwięcej istnień ludzkich w wypadku, czy taki, który uratuje Cię za wszelką cenę? To tylko niektóre z pytań, które pojawiają się, jeśli chodzi o etykę sztucznej inteligencji.
Co więcej, co by się stało, gdyby samochód zaczął analizować dane na podstawie osobistej historii, predyspozycji i niewidocznych uprzedzeń programisty? Czy jest jakaś gwarancja, że decyzje, które podejmują autonomiczne samochody zawsze będą w pełni obiektywne i kto by je decydował?
Programiści, firmy, a może nawet rządy? Jaka jest możliwość dyskryminacji maszynowej na podstawie algorytmów i pewnego rozpoznawania wzorców? W tym przypadku uważam, że technologia autonomicznej jazdy nie jest jeszcze zgodna .
Wniosek
Podsumowując, uważam, że kluczem do odpowiedzi i rozwiązania tych etycznych pytań byłoby zrównoważenie mocy między maszynami a ludźmi oraz podjęcie decyzji, w jakim stopniu maszyny (w tym przypadku autonomiczne samochody) będą w stanie uzależnić życie decyzje.
Myślę, że ponieważ technologia wciąż się nie rozwija, ludzie powinni mieć moc i pierwszeństwo w podejmowaniu decyzji opartych na moralności, podczas gdy maszyny ewoluują i stają się zdolne do podejmowania obiektywnych decyzji , które minimalizują szkody dla wszystkich.
Co sądzisz o etyce sztucznej inteligencji? Czy ludzie powinni rządzić maszynami, maszyny nad ludźmi, czy też musi istnieć dobrze obliczona równowaga? Daj mi znać w komentarzach pod spodem! Jeśli podobał Ci się ten artykuł, możesz również polubić 12 sposobów uczenia maszynowego, które mogą poprawić marketing.