จริยธรรมปัญญาประดิษฐ์: กรณีของรถยนต์ที่ขับด้วยตนเอง
เผยแพร่แล้ว: 2022-05-06กรณีศึกษาจริยธรรมปัญญาประดิษฐ์ – รถยนต์ไร้คนขับของ Welmo
ปัญญาประดิษฐ์หรือเพียงแค่ AI เป็นแนวคิดที่น่าสนใจ (และค่อนข้างน่ากลัว) มาโดยตลอด อย่างไรก็ตาม ไม่ว่าคุณจะมองอย่างไร ก็ปฏิเสธไม่ได้ว่า AI มีบทบาทสำคัญในกิจกรรมประจำวันของเรา แม้ว่าบางครั้งเราจะไม่ทราบก็ตาม
เมื่อเราคิดถึงเรื่องนี้ เราจะนึกถึงหุ่นยนต์และรถยนต์ที่ขับเคลื่อนด้วยตัวเอง – แต่มันมีอยู่แม้ว่าเราจะทำอะไรง่ายๆ เช่น ค้นหาคำศัพท์บน Google ใช่ ถูกต้อง – AI ถูกรวมเข้ากับผลิตภัณฑ์มากมายจาก Google อย่างลึกซึ้ง ซึ่งรวมถึงเสิร์ชเอ็นจิ้นที่มีชื่อเสียงด้วย
ทุกวันนี้ ธุรกิจมากกว่า 37% ใช้ AI ไม่ทางใดก็ทางหนึ่ง
อย่างไรก็ตาม การพัฒนาผลิตภัณฑ์ที่ใช้ AI เป็นมากกว่าแค่เทคโนโลยี
บริษัทต่างๆ ยังกังวลเกี่ยวกับจรรยาบรรณของปัญญาประดิษฐ์ – ความกังวลเกี่ยวกับพฤติกรรมทางศีลธรรม เมื่อพวกเขาออกแบบ สร้าง ใช้ และปฏิบัติต่อระบบ AI มีคำถามมากมายที่มักเกิดขึ้นเมื่อพัฒนาผลิตภัณฑ์ที่ใช้ AI:
ระบบ AI สามารถตัดสินใจอย่างมีจริยธรรมได้หรือไม่? ปัญญาประดิษฐ์ทำให้เกิดปัญหาอะไรในแง่ของพฤติกรรมทางศีลธรรม? เป็นไปได้ไหมที่จะป้องกันสถานการณ์ที่ผิดจรรยาบรรณ? จะเกิดอะไรขึ้นเมื่อระบบ AI ทำผิดพลาด?
ไม่มีคำตอบง่ายๆ สำหรับคำถามเหล่านี้ อันที่จริง บางส่วนมีความซับซ้อนมากจน ไม่มีคำตอบ ที่แน่ชัดเลย เพื่อให้เข้าใจปัญหาเหล่านี้มากขึ้น วันนี้เราจะพิจารณาจรรยาบรรณปัญญาประดิษฐ์จากเลนส์ของรถยนต์ไร้คนขับของ Welmo
มาดำดิ่งลงไปกันเถอะ:
จริยธรรมปัญญาประดิษฐ์: ภาวะที่กลืนไม่เข้าคายไม่ออกของรถยนต์ไร้คนขับ
บริษัทพัฒนาเทคโนโลยี Waymo ซึ่งถือกำเนิดจากโครงการรถยนต์ไร้คนขับของ Google ในปี 2552 จนกระทั่งกลายเป็นบริษัทลูกเดี่ยวในเดือนธันวาคม 2559 บริษัทพัฒนาเทคโนโลยี Waymo ได้เปิดตัวบริการรถยนต์ไร้คนขับเชิงพาณิชย์บริการแรกในเดือนธันวาคม 2561
ภายในเดือนตุลาคม 2018 รถยนต์ไร้คนขับได้เสร็จสิ้นการขับขี่บนถนนสาธารณะกว่า 10 ล้านไมล์ และระยะทางจำลองที่น่าอัศจรรย์ถึง 7 พันล้านไมล์ในโครงการโลกเสมือนจริงที่เรียกว่า Carcraft
อย่างไรก็ตาม แม้จะสร้างความตื่นตาตื่นใจให้กับโลกด้วยเทคโนโลยีที่ปฏิวัติวงการโดยใช้เซ็นเซอร์ที่ให้มุมมอง 360 องศาและเลเซอร์ที่สามารถตรวจจับวัตถุได้ไกลถึง 300 เมตร บริษัทที่มีมูลค่ามากกว่า 100 พันล้านเหรียญสหรัฐก็ ยังไม่ได้แก้ไขปัญหาสำคัญบางประการ ความท้าทายทางศีลธรรม
เพื่ออธิบายความท้าทายด้านจริยธรรมเหล่านี้ในตัวอย่างที่นำไปใช้ได้จริง เรามาดูวิดีโอที่ชื่อว่า ภาวะที่กลืนไม่เข้าคายไม่ออกทางจริยธรรมของรถยนต์ไร้คนขับโดย Patrick Lin และวิเคราะห์จากมุมมองของ Magna Carta:
จริยธรรมปัญญาประดิษฐ์: ภาวะที่กลืนไม่เข้าคายไม่ออกทางจริยธรรมของรถยนต์ที่ขับด้วยตนเอง (ดูวิดีโอ)
ในการทดลองทางความคิดนี้ แพทริค ลินได้นำเสนอกรณีตัวอย่างเชิงปฏิบัติที่รถยนต์ที่ขับเคลื่อนด้วยตนเองซึ่งบรรจุกล่องจากทุกทิศทุกทางบนถนน ถูกคุกคามโดยวัตถุหนักที่ตกลงมา และ จำเป็นต้องทำการตัดสินใจครั้งสำคัญ – เลี้ยวซ้ายเข้า รถเอสยูวี เลี้ยวขวาเข้ามอเตอร์ไซค์ หรือขับตรงไปจนโดนวัตถุ
ในสถานการณ์นี้ แพทริก ลินถามคำถามตามหลักศีลธรรมดังต่อไปนี้:
รถควรให้ความสำคัญกับความปลอดภัยของผู้โดยสารด้วยการชนรถจักรยานยนต์ ลดอันตรายต่อผู้อื่นโดยไม่หักเลี้ยว (แต่เสี่ยงชีวิตผู้โดยสาร) หรือชนรถ SUV หรือไม่? การตัดสินใจที่ถูกต้องตามหลักจริยธรรมในกรณีนี้คืออะไร?
ในการฝึกจิตครั้งนี้ แพทริค ลินกล่าวว่าหากการตัดสินใจเป็นคนขับรถยนต์ธรรมดาด้วยตนเอง การตัดสินใจนั้นอาจตีความได้ว่าเป็นปฏิกิริยาที่เกิดจากความตื่นตระหนกและหุนหันพลันแล่นมากกว่าการตัดสินใจจริง
อย่างไรก็ตาม ในกรณีที่ยานพาหนะที่ขับด้วยตนเองกำลังตัดสินใจตามสถานการณ์และสถานการณ์ที่ตั้งโปรแกรมไว้ล่วงหน้า จะถือเป็น " การฆาตกรรมโดยไตร่ตรองไว้ก่อน " หรือไม่
ผลลัพธ์ของอุบัติเหตุที่อาจเกิดขึ้นจะถูกกำหนดโดยโปรแกรมเมอร์ล่วงหน้าหลายเดือนหรือไม่? ปัจจัยใดบ้างที่ควรพิจารณาล่วงหน้าเพื่อลดอันตราย
การทดลองทางความคิดที่ดำเนินการโดย Patrick Lin ทำให้มีพื้นที่เหลือเฟือสำหรับการทำความเข้าใจ การวิเคราะห์ และการนำปัญญาประดิษฐ์ไปใช้
เมื่อพิจารณาถึงสถานการณ์ที่เป็นไปได้ในอนาคตเช่นนี้ เรามาดูกันว่าความท้าทายที่ Waymo จะต้องแก้ไขคืออะไรจึงจะประสบความสำเร็จด้วยรถยนต์ที่ขับเคลื่อนด้วยตนเอง
ความสมดุลของกำลังและการตัดสินใจของเครื่องจักร
ไม่ต้องสงสัยเลยว่าหนึ่งในความท้าทายหลักสำหรับ Waymo และบริษัทอื่นๆ ที่พัฒนาเทคโนโลยีขับเคลื่อนด้วยตนเองยังคงอยู่ใน การกำหนดสมดุลของพลังงานระหว่างมนุษย์และเครื่องจักร - เมื่อใดที่พลังงานควรเปลี่ยนจากเครื่องจักรเป็นมนุษย์ และจากมนุษย์เป็นเครื่องจักร

เราสามารถ พึ่งพา พวกเขาได้อย่างเต็มที่และไม่มีเงื่อนไขหรือไม่?
ในขั้นตอนนี้ของเทคโนโลยีที่ยังคงเกิดขึ้นใหม่ อาจจะไม่ สิ่งนี้ชัดเจนยิ่งขึ้นเมื่อดูที่การชนครั้งล่าสุดในเอธิโอเปียของโบอิ้ง 737 Max ซึ่งระบบ MCAS ที่ป้องกันแผงลอยบังคับให้จมูกของเครื่องบินลงโดยอัตโนมัติเนื่องจากการอ่านเซ็นเซอร์ที่ไม่ถูกต้องทำให้นักบินไม่สามารถทำอะไรเพื่อแก้ไข ข้อผิดพลาดของเครื่อง
ระบบได้รับ อำนาจและลำดับความสำคัญมากเกินไป เหนือการแทรกแซงของมนุษย์หรือไม่? แม้ว่าปัญญาประดิษฐ์จะลดข้อผิดพลาดของมนุษย์ได้อย่างมาก แต่ก็ไม่ได้หมายความว่าข้อผิดพลาดของเครื่องจะไม่เกิดขึ้นในบางจุดของกระบวนการ
ทางเลือกส่วนบุคคล & โพลาไรซ์
การไตร่ตรองครั้งต่อไปเมื่อพูดถึงจรรยาบรรณปัญญาประดิษฐ์นั้นเกี่ยวข้องกับการเลือกส่วนบุคคลและการแบ่งชนชั้น
เป็นหนึ่งในแง่มุมที่ใหญ่ที่สุดเมื่อพูดถึง Magna Carta ซึ่งเป็นแนวทางสำหรับการรวมและความยุติธรรมใน Global AI Economy นำเสนอโดยผู้เชี่ยวชาญ Olaf Groth, Mark Nitzberg และ Mark Esposito
คู่มือนี้มีวัตถุประสงค์เพื่อสนับสนุนองค์กรในการพัฒนากลยุทธ์ AI ที่ประสบความสำเร็จ โดยเน้นที่จริยธรรมปัญญาประดิษฐ์ มันทำให้เกิดคำถามสำคัญเกี่ยวกับระดับของการเลือกของมนุษย์และการรวมอยู่ในการพัฒนา AI
เราจะปกครองโลกใหม่ที่กล้าหาญของการ มีคุณธรรมของเครื่องจักรได้อย่างไร? เครื่องจักรจะขจัดทางเลือกส่วนตัวหรือไม่?
ในขณะที่การเลือกส่วนบุคคลและการแบ่งขั้วเป็นประเด็นสำคัญบางประการของ Magna Carta เทคโนโลยีการขับขี่ด้วยตนเองอาจไม่จำเป็นต้องส่งผลกระทบด้านลบอย่างรุนแรงต่อผู้คนและชีวิตประจำวันของพวกเขา
เทคโนโลยีประเภทนี้ได้รับการออกแบบด้วยแนวคิดในการตัดสินใจที่ดีขึ้น เร็วขึ้น และเป็นมิตรกับสิ่งแวดล้อมมากขึ้น ซึ่งจะเป็นประโยชน์ต่อผู้ใช้บริการนี้แทบทุกคน มันอาจลดการเลือกส่วนบุคคลลงบ้าง แต่ฉันไม่คิดว่ามันจะกำจัดมันได้หมด
การตัดสิน การเลือกปฏิบัติ และอคติ
ดังที่เราได้กล่าวไปแล้วก่อนหน้านี้ เครื่องจักรที่มีปัญญาประดิษฐ์ จะตัดสินใจเกี่ยวกับความปลอดภัยของเรา ซึ่งอาจส่งผลต่อความเป็นอยู่ที่ดีของผู้อื่น หากได้รับการตั้งโปรแกรมล่วงหน้าให้ "ตอบสนอง" ในลักษณะที่แน่นอนขึ้นอยู่กับสถานการณ์
ดังที่เราเห็นในตัวอย่างรถที่โดนวัตถุหนักคุกคาม ลำดับความสำคัญคือการลดอันตรายโดยรวมให้เหลือน้อยที่สุด หรือช่วยชีวิตเจ้าของรถที่ขับด้วยตนเองหรือไม่
อย่างที่แพทริค ลินถาม คุณจะเลือกรถที่ช่วยชีวิตคนได้มากที่สุดเท่าที่จะมากได้ในอุบัติเหตุ หรือรถที่จะช่วยคุณได้ไม่ว่าจะต้องแลกมาด้วยอะไรก็ตาม นี่เป็นเพียงคำถามบางส่วนที่เกิดขึ้นเมื่อพูดถึงจริยธรรมปัญญาประดิษฐ์
ยิ่งไปกว่านั้น จะเกิดอะไรขึ้นถ้ารถเริ่มวิเคราะห์ข้อมูลโดยอิงจากประวัติส่วนตัวของโปรแกรมเมอร์ ความโน้มเอียง และอคติที่มองไม่เห็นของโปรแกรมเมอร์ มีการรับประกันใด ๆ หรือไม่ว่าการตัดสินใจของรถยนต์ที่ขับเคลื่อนด้วยตนเองนั้นมีวัตถุประสงค์โดยสมบูรณ์เสมอ และใครจะเป็นผู้ตัดสินใจ
โปรแกรมเมอร์ บริษัท หรือแม้แต่รัฐบาล? อะไรคือความเป็นไปได้ของการเลือกปฏิบัติเครื่องตามอัลกอริทึมและการจดจำรูปแบบบางอย่าง? ในกรณีนี้ ฉันคิดว่าเทคโนโลยีการขับขี่ด้วยตนเองยัง ไม่ เป็นไปตามข้อกำหนด
บทสรุป
โดยสรุป ผมเชื่อว่ากุญแจสำคัญในการตอบและไขข้อซักถามทางจริยธรรมเหล่านี้คือการสร้างสมดุลระหว่างพลังระหว่างเครื่องจักรกับมนุษย์ และการตัดสินใจว่าเครื่องจักรจะขยายขอบเขตออกไปเท่าใด (ในกรณีนี้ รถยนต์ที่ขับด้วยตนเอง) จะทำให้ชีวิตขึ้นอยู่กับ การตัดสินใจ
ฉันคิดว่าในขณะที่เทคโนโลยียังแทบไม่เกิดขึ้น มนุษย์ควรมีอำนาจและลำดับความสำคัญในการตัดสินใจตามหลักศีลธรรม ในขณะที่เครื่องจักรกำลังพัฒนาและมีความสามารถในการตัดสินใจตามวัตถุประสงค์ ที่ลดอันตรายให้กับทุกคนน้อยที่สุด
คุณคิดอย่างไรเกี่ยวกับจริยธรรมปัญญาประดิษฐ์? มนุษย์ควรครอบครองเหนือเครื่องจักร เครื่องจักรเหนือมนุษย์ หรือต้องมีความสมดุลที่คำนวณมาอย่างดี แจ้งให้เราทราบในความคิดเห็นด้านล่าง! หากคุณชอบบทความนี้ คุณอาจชอบ 12 วิธีแมชชีนเลิร์นนิงสามารถปรับปรุงการตลาดได้