أخلاقيات الذكاء الاصطناعي: حالة السيارات ذاتية القيادة
نشرت: 2022-05-06دراسة حالة عن أخلاقيات الذكاء الاصطناعي - سيارات ويلمو ذاتية القيادة.
لطالما كان الذكاء الاصطناعي ، أو ببساطة الذكاء الاصطناعي ، مفهومًا رائعًا (ومخيفًا بعض الشيء). ومع ذلك ، بغض النظر عن الطريقة التي تنظر بها إلى ذلك ، فلا شك في أن الذكاء الاصطناعي يلعب دورًا كبيرًا في أنشطتنا اليومية ، حتى لو لم ندرك ذلك في بعض الأحيان.
عندما نفكر في الأمر ، نفكر في الروبوتات والسيارات ذاتية القيادة - لكنها موجودة حتى عندما نفعل شيئًا بسيطًا ، مثل البحث عن مصطلح على Google. نعم ، هذا صحيح - تم دمج الذكاء الاصطناعي بعمق في العديد من منتجات Google ، بما في ذلك محرك البحث الشهير.
اليوم ، أكثر من 37٪ من الشركات تستخدم الذكاء الاصطناعي بطريقة أو بأخرى.
ومع ذلك ، فإن تطوير المنتجات القائمة على الذكاء الاصطناعي يتجاوز مجرد التكنولوجيا.
تقلق الشركات أيضًا بشأن أخلاقيات الذكاء الاصطناعي - الاهتمام بالسلوك الأخلاقي أثناء تصميم أنظمة الذكاء الاصطناعي وبنائها واستخدامها ومعالجتها. هناك العديد من الأسئلة التي تظهر غالبًا عند تطوير المنتجات القائمة على الذكاء الاصطناعي:
هل تستطيع أنظمة الذكاء الاصطناعي اتخاذ قرارات أخلاقية؟ ما هي المشاكل التي يمكن أن يسببها الذكاء الاصطناعي من حيث السلوك الأخلاقي؟ هل من الممكن منع المواقف غير الأخلاقية؟ ماذا يحدث عندما يرتكب نظام الذكاء الاصطناعي خطأ؟
لا توجد إجابة سهلة لهذه الأسئلة. في الواقع ، بعضها معقد للغاية لدرجة أنه ليس لديهم أي إجابات نهائية على الإطلاق. لفهم هذه القضايا بشكل أفضل ، سننظر اليوم في أخلاقيات الذكاء الاصطناعي من عدسة سيارات Welmo ذاتية القيادة.
لذلك ، دعنا نتعمق فيه:
أخلاقيات الذكاء الاصطناعي: معضلة السيارات ذاتية القيادة
أطلقت شركة تطوير التكنولوجيا Waymo ، التي نشأت كمشروع Google Self-Driving Car في عام 2009 حتى أصبحت شركة فرعية قائمة بذاتها في ديسمبر 2016 ، أول خدمة تجارية للسيارات ذاتية القيادة في ديسمبر 2018.
بحلول أكتوبر 2018 ، أكملت السيارة المستقلة أكثر من 10 ملايين ميل من القيادة على الطرق العامة ، و 7 مليارات ميل من المحاكاة المذهلة في برنامج العالم الافتراضي المسمى Carcraft.
ومع ذلك ، على الرغم من إذهال العالم بتكنولوجيا ثورية تعتمد على الاستقلالية الكاملة مع أجهزة استشعار توفر مناظر بزاوية 360 درجة وأشعة ليزر قادرة على اكتشاف الأشياء التي تصل إلى 300 متر ، فإن الشركة التي تقدر قيمتها بأكثر من 100 مليار دولار لم تحل بعد بعض الأمور المهمة التحديات الأخلاقية .
لشرح هذه التحديات الأخلاقية في مثال عملي ، دعنا نلقي نظرة على هذا الفيديو المسمى المعضلة الأخلاقية للسيارات ذاتية القيادة لباتريك لين ، ونحللها من منظور ماجنا كارتا:
أخلاقيات الذكاء الاصطناعي: المعضلة الأخلاقية للسيارات ذاتية القيادة (شاهد الفيديو)
في هذه التجربة الفكرية ، يقدم لنا باتريك لين حالة عملية تكون فيها سيارة ذاتية القيادة ، محاصرة من جميع جوانب الطريق ، مهددة بسقوط جسم ثقيل ، وتحتاج إلى اتخاذ قرار مهم - انحرف إلى اليسار في سيارة دفع رباعي ، أو انحرف لليمين في اتجاه دراجة نارية ، أو استمر في خط مستقيم واصطدم بالجسم.
في هذه الحالة ، يسأل باتريك لين السؤال الأخلاقي التالي:
هل يجب أن تعطي السيارة الأولوية لسلامة الراكب عن طريق الاصطدام بالدراجة النارية ، أو تقليل الخطر على الآخرين من خلال عدم الانحراف (ولكن المخاطرة بحياة الراكب) ، أو الاصطدام بسيارة الدفع الرباعي؟ ما هو القرار الأكثر أخلاقية في هذه الحالة؟
في هذا التمرين العقلي ، صرح باتريك لين أنه إذا تم اتخاذ القرار من قبل شخص يقود سيارة عادية يدويًا ، فيمكن تفسيره على أنه رد فعل اندفاعي قائم على الذعر وليس قرارًا فعليًا.
ومع ذلك ، في الحالة التي تتخذ فيها مركبة ذاتية القيادة قرارًا بناءً على مواقف وظروف مبرمجة مسبقًا ، فهل يعتبر ذلك " قتلًا متعمدًا "؟
هل سيتم تحديد نتائج الحوادث المحتملة قبل أشهر من قبل المبرمجين؟ ما العوامل التي يجب مراعاتها مسبقًا لتقليل الضرر؟
تترك التجربة الفكرية التي أجراها باتريك لين مساحة كبيرة لفهم الذكاء الاصطناعي وتحليله وتنفيذه.
بالنظر إلى السيناريوهات المستقبلية المحتملة مثل هذا ، فلنلقِ نظرة على التحديات التي سيتعين على Waymo حلها من أجل النجاح مع سياراتها ذاتية القيادة.

ميزان القوى وقرارات الماكينة
لا شك أن أحد التحديات الرئيسية التي تواجه Waymo والشركات الأخرى التي تعمل على تطوير تكنولوجيا القيادة الذاتية هو تحديد توازن القوى بين البشر والآلات - في أي نقطة يجب أن تتحول الطاقة من الآلات إلى البشر ، ومن البشر إلى الآلات؟
هل يمكننا أن نعتمد عليهم بشكل كامل وغير مشروط؟
في هذه المرحلة من التكنولوجيا التي لا تزال ناشئة ، ربما لا. يصبح هذا أكثر وضوحًا عند النظر إلى التحطم الأخير في إثيوبيا لطائرة Boeing 737 Max ، حيث دفع نظام MCAS المضاد للتوقف مقدمة الطائرة تلقائيًا لأسفل بسبب قراءات أجهزة الاستشعار غير الصحيحة ، مما يجعل الطيارين غير قادرين عمليًا على فعل أي شيء لتصحيح الخطأ. خطأ الآلة.
هل أعطي النظام الكثير من القوة والأولوية على التدخل البشري؟ في حين أنه من الصحيح أن الذكاء الاصطناعي يقلل من الخطأ البشري إلى حد كبير ، فإن هذا لا يعني أن خطأ الآلة لن يحدث في مرحلة ما من العملية.
الاختيار الشخصي والاستقطاب
الانعكاس التالي عندما يتعلق الأمر بأخلاقيات الذكاء الاصطناعي يتعلق بالاختيار الشخصي والاستقطاب.
إنه أحد أكبر الجوانب عندما يتعلق الأمر بماغنا كارتا - دليل الشمولية والإنصاف في الاقتصاد العالمي للذكاء الاصطناعي ، قدمه الخبراء أولاف جروث ومارك نيتزبرغ ومارك إسبوزيتو.
يهدف هذا الدليل إلى دعم المنظمات في تطوير إستراتيجية ناجحة للذكاء الاصطناعي ، مع التركيز على أخلاقيات الذكاء الاصطناعي. يثير أسئلة رئيسية حول درجة الاختيار البشري والاندماج في تطوير الذكاء الاصطناعي.
كيف سنحكم هذا العالم الجديد الشجاع من الجدارة الآلية؟ هل ستلغي الآلات الاختيار الشخصي؟
في حين أن الاختيار الشخصي والاستقطاب هما بعض الجوانب الرئيسية لـ Magna Carta ، قد لا يكون لتكنولوجيا القيادة الذاتية بالضرورة تأثير سلبي قوي على الناس وحياتهم اليومية.
تم تصميم هذا النوع من التكنولوجيا بفكرة اتخاذ قرارات أفضل وأسرع وأكثر صداقة للبيئة والتي من شأنها في نهاية المطاف أن تعود بالفائدة على جميع مستخدمي هذه الخدمة. قد يقلل من الاختيار الشخصي إلى حد ما ، لكنني لا أعتقد أنه سيقضي عليه تمامًا.
الأحكام والتمييز والتحيز
كما ناقشنا مسبقًا ، فإن الآلات ذات الذكاء الاصطناعي ستتخذ قرارات بشأن سلامتنا قد تعرض رفاهية الآخرين للخطر إذا كانت مبرمجة مسبقًا بالفعل "للرد" بطريقة معينة اعتمادًا على الموقف.
كما رأينا في مثال السيارة التي تعرضت للتهديد من جسم ثقيل ، فهل ستكون الأولوية لتقليل الضرر العام أم إنقاذ مالك السيارة ذاتية القيادة؟
كما يسأل باتريك لين ، هل ستختار سيارة تنقذ دائمًا أكبر عدد ممكن من الأرواح في حالة وقوع حادث ، أم سيارة من شأنها أن تنقذك بأي ثمن؟ هذه ليست سوى بعض الأسئلة التي تنشأ عندما يتعلق الأمر بأخلاقيات الذكاء الاصطناعي.
علاوة على ذلك ، ماذا سيحدث إذا بدأت السيارة في تحليل البيانات بناءً على التاريخ الشخصي للمبرمج وميولته وتحيزاته غير المرئية؟ هل هناك ما يضمن أن القرارات التي تتخذها السيارات ذاتية القيادة ستكون دائمًا موضوعية تمامًا ، ومن سيقررها؟
المبرمجين والشركات وربما الحكومات؟ ما هي إمكانية تمييز الآلة على أساس الخوارزميات وبعض التعرف على الأنماط؟ في هذه الحالة ، أعتقد أن تقنية القيادة الذاتية ليست متوافقة بعد.
خاتمة
في الختام ، أعتقد أن مفتاح الإجابة على هذه الأسئلة الأخلاقية وحلها هو موازنة القوة بين الآلات والبشر ، وتحديد المدى الذي يمكن للآلات (في هذه الحالة ، السيارات ذاتية القيادة) أن تجعلها تعتمد على الحياة. قرارات.
أعتقد أنه نظرًا لأن التكنولوجيا لا تزال تظهر بالكاد ، يجب أن يتمتع البشر بالقوة والأولوية لاتخاذ قرارات قائمة على الأخلاق بينما تتطور الآلات وتصبح قادرة على اتخاذ قرارات موضوعية تقلل الضرر الذي يلحق للجميع.
ما رأيك في أخلاقيات الذكاء الاصطناعي؟ هل ينبغي للبشر أن يسيطروا على الآلات والآلات على البشر ، أم يجب أن يكون هناك توازن محسوب جيدًا؟ اسمحوا لي أن نعرف في التعليقات أدناه! إذا أعجبك هذا المقال ، فقد يعجبك أيضًا 12 طريقة يمكن للتعلم الآلي تحسين التسويق.