จริยธรรมปัญญาประดิษฐ์: กรณีของรถยนต์ที่ขับด้วยตนเอง

เผยแพร่แล้ว: 2022-05-06

กรณีศึกษาจริยธรรมปัญญาประดิษฐ์ – รถยนต์ไร้คนขับของ Welmo

ปัญญาประดิษฐ์หรือเพียงแค่ AI เป็นแนวคิดที่น่าสนใจ (และค่อนข้างน่ากลัว) มาโดยตลอด อย่างไรก็ตาม ไม่ว่าคุณจะมองอย่างไร ก็ปฏิเสธไม่ได้ว่า AI มีบทบาทสำคัญในกิจกรรมประจำวันของเรา แม้ว่าบางครั้งเราจะไม่ทราบก็ตาม

เมื่อเราคิดถึงเรื่องนี้ เราจะนึกถึงหุ่นยนต์และรถยนต์ที่ขับเคลื่อนด้วยตัวเอง – แต่มันมีอยู่แม้ว่าเราจะทำอะไรง่ายๆ เช่น ค้นหาคำศัพท์บน Google ใช่ ถูกต้อง – AI ถูกรวมเข้ากับผลิตภัณฑ์มากมายจาก Google อย่างลึกซึ้ง ซึ่งรวมถึงเสิร์ชเอ็นจิ้นที่มีชื่อเสียงด้วย

จรรยาบรรณปัญญาประดิษฐ์

ทุกวันนี้ ธุรกิจมากกว่า 37% ใช้ AI ไม่ทางใดก็ทางหนึ่ง

อย่างไรก็ตาม การพัฒนาผลิตภัณฑ์ที่ใช้ AI เป็นมากกว่าแค่เทคโนโลยี

บริษัทต่างๆ ยังกังวลเกี่ยวกับจรรยาบรรณของปัญญาประดิษฐ์ – ความกังวลเกี่ยวกับพฤติกรรมทางศีลธรรม เมื่อพวกเขาออกแบบ สร้าง ใช้ และปฏิบัติต่อระบบ AI มีคำถามมากมายที่มักเกิดขึ้นเมื่อพัฒนาผลิตภัณฑ์ที่ใช้ AI:

ระบบ AI สามารถตัดสินใจอย่างมีจริยธรรมได้หรือไม่? ปัญญาประดิษฐ์ทำให้เกิดปัญหาอะไรในแง่ของพฤติกรรมทางศีลธรรม? เป็นไปได้ไหมที่จะป้องกันสถานการณ์ที่ผิดจรรยาบรรณ? จะเกิดอะไรขึ้นเมื่อระบบ AI ทำผิดพลาด?

ไม่มีคำตอบง่ายๆ สำหรับคำถามเหล่านี้ อันที่จริง บางส่วนมีความซับซ้อนมากจน ไม่มีคำตอบ ที่แน่ชัดเลย เพื่อให้เข้าใจปัญหาเหล่านี้มากขึ้น วันนี้เราจะพิจารณาจรรยาบรรณปัญญาประดิษฐ์จากเลนส์ของรถยนต์ไร้คนขับของ Welmo

มาดำดิ่งลงไปกันเถอะ:

จริยธรรมปัญญาประดิษฐ์: ภาวะที่กลืนไม่เข้าคายไม่ออกของรถยนต์ไร้คนขับ

บริษัทพัฒนาเทคโนโลยี Waymo ซึ่งถือกำเนิดจากโครงการรถยนต์ไร้คนขับของ Google ในปี 2552 จนกระทั่งกลายเป็นบริษัทลูกเดี่ยวในเดือนธันวาคม 2559 บริษัทพัฒนาเทคโนโลยี Waymo ได้เปิดตัวบริการรถยนต์ไร้คนขับเชิงพาณิชย์บริการแรกในเดือนธันวาคม 2561

ภายในเดือนตุลาคม 2018 รถยนต์ไร้คนขับได้เสร็จสิ้นการขับขี่บนถนนสาธารณะกว่า 10 ล้านไมล์ และระยะทางจำลองที่น่าอัศจรรย์ถึง 7 พันล้านไมล์ในโครงการโลกเสมือนจริงที่เรียกว่า Carcraft

จรรยาบรรณปัญญาประดิษฐ์

อย่างไรก็ตาม แม้จะสร้างความตื่นตาตื่นใจให้กับโลกด้วยเทคโนโลยีที่ปฏิวัติวงการโดยใช้เซ็นเซอร์ที่ให้มุมมอง 360 องศาและเลเซอร์ที่สามารถตรวจจับวัตถุได้ไกลถึง 300 เมตร บริษัทที่มีมูลค่ามากกว่า 100 พันล้านเหรียญสหรัฐก็ ยังไม่ได้แก้ไขปัญหาสำคัญบางประการ ความท้าทายทางศีลธรรม

เพื่ออธิบายความท้าทายด้านจริยธรรมเหล่านี้ในตัวอย่างที่นำไปใช้ได้จริง เรามาดูวิดีโอที่ชื่อว่า ภาวะที่กลืนไม่เข้าคายไม่ออกทางจริยธรรมของรถยนต์ไร้คนขับโดย Patrick Lin และวิเคราะห์จากมุมมองของ Magna Carta:

ภาวะที่กลืนไม่เข้าคายไม่ออกทางจริยธรรมของรถยนต์ที่ขับเอง

จริยธรรมปัญญาประดิษฐ์: ภาวะที่กลืนไม่เข้าคายไม่ออกทางจริยธรรมของรถยนต์ที่ขับด้วยตนเอง (ดูวิดีโอ)

ในการทดลองทางความคิดนี้ แพทริค ลินได้นำเสนอกรณีตัวอย่างเชิงปฏิบัติที่รถยนต์ที่ขับเคลื่อนด้วยตนเองซึ่งบรรจุกล่องจากทุกทิศทุกทางบนถนน ถูกคุกคามโดยวัตถุหนักที่ตกลงมา และ จำเป็นต้องทำการตัดสินใจครั้งสำคัญ – เลี้ยวซ้ายเข้า รถเอสยูวี เลี้ยวขวาเข้ามอเตอร์ไซค์ หรือขับตรงไปจนโดนวัตถุ

ในสถานการณ์นี้ แพทริก ลินถามคำถามตามหลักศีลธรรมดังต่อไปนี้:

รถควรให้ความสำคัญกับความปลอดภัยของผู้โดยสารด้วยการชนรถจักรยานยนต์ ลดอันตรายต่อผู้อื่นโดยไม่หักเลี้ยว (แต่เสี่ยงชีวิตผู้โดยสาร) หรือชนรถ SUV หรือไม่? การตัดสินใจที่ถูกต้องตามหลักจริยธรรมในกรณีนี้คืออะไร?

ในการฝึกจิตครั้งนี้ แพทริค ลินกล่าวว่าหากการตัดสินใจเป็นคนขับรถยนต์ธรรมดาด้วยตนเอง การตัดสินใจนั้นอาจตีความได้ว่าเป็นปฏิกิริยาที่เกิดจากความตื่นตระหนกและหุนหันพลันแล่นมากกว่าการตัดสินใจจริง

อย่างไรก็ตาม ในกรณีที่ยานพาหนะที่ขับด้วยตนเองกำลังตัดสินใจตามสถานการณ์และสถานการณ์ที่ตั้งโปรแกรมไว้ล่วงหน้า จะถือเป็น " การฆาตกรรมโดยไตร่ตรองไว้ก่อน " หรือไม่

ผลลัพธ์ของอุบัติเหตุที่อาจเกิดขึ้นจะถูกกำหนดโดยโปรแกรมเมอร์ล่วงหน้าหลายเดือนหรือไม่? ปัจจัยใดบ้างที่ควรพิจารณาล่วงหน้าเพื่อลดอันตราย

การทดลองทางความคิดที่ดำเนินการโดย Patrick Lin ทำให้มีพื้นที่เหลือเฟือสำหรับการทำความเข้าใจ การวิเคราะห์ และการนำปัญญาประดิษฐ์ไปใช้

เมื่อพิจารณาถึงสถานการณ์ที่เป็นไปได้ในอนาคตเช่นนี้ เรามาดูกันว่าความท้าทายที่ Waymo จะต้องแก้ไขคืออะไรจึงจะประสบความสำเร็จด้วยรถยนต์ที่ขับเคลื่อนด้วยตนเอง

ความสมดุลของกำลังและการตัดสินใจของเครื่องจักร

ไม่ต้องสงสัยเลยว่าหนึ่งในความท้าทายหลักสำหรับ Waymo และบริษัทอื่นๆ ที่พัฒนาเทคโนโลยีขับเคลื่อนด้วยตนเองยังคงอยู่ใน การกำหนดสมดุลของพลังงานระหว่างมนุษย์และเครื่องจักร - เมื่อใดที่พลังงานควรเปลี่ยนจากเครื่องจักรเป็นมนุษย์ และจากมนุษย์เป็นเครื่องจักร

เราสามารถ พึ่งพา พวกเขาได้อย่างเต็มที่และไม่มีเงื่อนไขหรือไม่?

ในขั้นตอนนี้ของเทคโนโลยีที่ยังคงเกิดขึ้นใหม่ อาจจะไม่ สิ่งนี้ชัดเจนยิ่งขึ้นเมื่อดูที่การชนครั้งล่าสุดในเอธิโอเปียของโบอิ้ง 737 Max ซึ่งระบบ MCAS ที่ป้องกันแผงลอยบังคับให้จมูกของเครื่องบินลงโดยอัตโนมัติเนื่องจากการอ่านเซ็นเซอร์ที่ไม่ถูกต้องทำให้นักบินไม่สามารถทำอะไรเพื่อแก้ไข ข้อผิดพลาดของเครื่อง

ตัวอย่างพันธกิจ

ระบบได้รับ อำนาจและลำดับความสำคัญมากเกินไป เหนือการแทรกแซงของมนุษย์หรือไม่? แม้ว่าปัญญาประดิษฐ์จะลดข้อผิดพลาดของมนุษย์ได้อย่างมาก แต่ก็ไม่ได้หมายความว่าข้อผิดพลาดของเครื่องจะไม่เกิดขึ้นในบางจุดของกระบวนการ

ทางเลือกส่วนบุคคล & โพลาไรซ์

การไตร่ตรองครั้งต่อไปเมื่อพูดถึงจรรยาบรรณปัญญาประดิษฐ์นั้นเกี่ยวข้องกับการเลือกส่วนบุคคลและการแบ่งชนชั้น

เป็นหนึ่งในแง่มุมที่ใหญ่ที่สุดเมื่อพูดถึง Magna Carta ซึ่งเป็นแนวทางสำหรับการรวมและความยุติธรรมใน Global AI Economy นำเสนอโดยผู้เชี่ยวชาญ Olaf Groth, Mark Nitzberg และ Mark Esposito

คู่มือนี้มีวัตถุประสงค์เพื่อสนับสนุนองค์กรในการพัฒนากลยุทธ์ AI ที่ประสบความสำเร็จ โดยเน้นที่จริยธรรมปัญญาประดิษฐ์ มันทำให้เกิดคำถามสำคัญเกี่ยวกับระดับของการเลือกของมนุษย์และการรวมอยู่ในการพัฒนา AI

เราจะปกครองโลกใหม่ที่กล้าหาญของการ มีคุณธรรมของเครื่องจักรได้อย่างไร? เครื่องจักรจะขจัดทางเลือกส่วนตัวหรือไม่?

จรรยาบรรณปัญญาประดิษฐ์

ในขณะที่การเลือกส่วนบุคคลและการแบ่งขั้วเป็นประเด็นสำคัญบางประการของ Magna Carta เทคโนโลยีการขับขี่ด้วยตนเองอาจไม่จำเป็นต้องส่งผลกระทบด้านลบอย่างรุนแรงต่อผู้คนและชีวิตประจำวันของพวกเขา

เทคโนโลยีประเภทนี้ได้รับการออกแบบด้วยแนวคิดในการตัดสินใจที่ดีขึ้น เร็วขึ้น และเป็นมิตรกับสิ่งแวดล้อมมากขึ้น ซึ่งจะเป็นประโยชน์ต่อผู้ใช้บริการนี้แทบทุกคน มันอาจลดการเลือกส่วนบุคคลลงบ้าง แต่ฉันไม่คิดว่ามันจะกำจัดมันได้หมด

การตัดสิน การเลือกปฏิบัติ และอคติ

ดังที่เราได้กล่าวไปแล้วก่อนหน้านี้ เครื่องจักรที่มีปัญญาประดิษฐ์ จะตัดสินใจเกี่ยวกับความปลอดภัยของเรา ซึ่งอาจส่งผลต่อความเป็นอยู่ที่ดีของผู้อื่น หากได้รับการตั้งโปรแกรมล่วงหน้าให้ "ตอบสนอง" ในลักษณะที่แน่นอนขึ้นอยู่กับสถานการณ์

ดังที่เราเห็นในตัวอย่างรถที่โดนวัตถุหนักคุกคาม ลำดับความสำคัญคือการลดอันตรายโดยรวมให้เหลือน้อยที่สุด หรือช่วยชีวิตเจ้าของรถที่ขับด้วยตนเองหรือไม่

อย่างที่แพทริค ลินถาม คุณจะเลือกรถที่ช่วยชีวิตคนได้มากที่สุดเท่าที่จะมากได้ในอุบัติเหตุ หรือรถที่จะช่วยคุณได้ไม่ว่าจะต้องแลกมาด้วยอะไรก็ตาม นี่เป็นเพียงคำถามบางส่วนที่เกิดขึ้นเมื่อพูดถึงจริยธรรมปัญญาประดิษฐ์

ปัญญาประดิษฐ์ของกูเกิล

ยิ่งไปกว่านั้น จะเกิดอะไรขึ้นถ้ารถเริ่มวิเคราะห์ข้อมูลโดยอิงจากประวัติส่วนตัวของโปรแกรมเมอร์ ความโน้มเอียง และอคติที่มองไม่เห็นของโปรแกรมเมอร์ มีการรับประกันใด ๆ หรือไม่ว่าการตัดสินใจของรถยนต์ที่ขับเคลื่อนด้วยตนเองนั้นมีวัตถุประสงค์โดยสมบูรณ์เสมอ และใครจะเป็นผู้ตัดสินใจ

โปรแกรมเมอร์ บริษัท หรือแม้แต่รัฐบาล? อะไรคือความเป็นไปได้ของการเลือกปฏิบัติเครื่องตามอัลกอริทึมและการจดจำรูปแบบบางอย่าง? ในกรณีนี้ ฉันคิดว่าเทคโนโลยีการขับขี่ด้วยตนเองยัง ไม่ เป็นไปตามข้อกำหนด

บทสรุป

โดยสรุป ผมเชื่อว่ากุญแจสำคัญในการตอบและไขข้อซักถามทางจริยธรรมเหล่านี้คือการสร้างสมดุลระหว่างพลังระหว่างเครื่องจักรกับมนุษย์ และการตัดสินใจว่าเครื่องจักรจะขยายขอบเขตออกไปเท่าใด (ในกรณีนี้ รถยนต์ที่ขับด้วยตนเอง) จะทำให้ชีวิตขึ้นอยู่กับ การตัดสินใจ

ฉันคิดว่าในขณะที่เทคโนโลยียังแทบไม่เกิดขึ้น มนุษย์ควรมีอำนาจและลำดับความสำคัญในการตัดสินใจตามหลักศีลธรรม ในขณะที่เครื่องจักรกำลังพัฒนาและมีความสามารถในการตัดสินใจตามวัตถุประสงค์ ที่ลดอันตรายให้กับทุกคนน้อยที่สุด

คุณคิดอย่างไรเกี่ยวกับจริยธรรมปัญญาประดิษฐ์? มนุษย์ควรครอบครองเหนือเครื่องจักร เครื่องจักรเหนือมนุษย์ หรือต้องมีความสมดุลที่คำนวณมาอย่างดี แจ้งให้เราทราบในความคิดเห็นด้านล่าง! หากคุณชอบบทความนี้ คุณอาจชอบ 12 วิธีแมชชีนเลิร์นนิงสามารถปรับปรุงการตลาดได้