Etica inteligenței artificiale: cazul mașinilor care se conduce singur

Publicat: 2022-05-06

Un studiu de caz despre etica Inteligenței Artificiale – mașinile cu conducere autonomă ale lui Welmo.

Inteligența artificială, sau pur și simplu AI, a fost întotdeauna un concept fascinant (și puțin înfricoșător). Cu toate acestea, indiferent de modul în care priviți, nu se poate nega că AI joacă un rol enorm în activitățile noastre de zi cu zi, chiar dacă uneori nu ne dăm seama.

Când ne gândim la asta, ne gândim la roboți și la mașini care se conduc singure – dar este prezent chiar și atunci când facem ceva simplu, cum ar fi să căutăm un termen pe Google. Da, așa este – AI este profund integrat în multe produse de la Google, inclusiv în celebrul său motor de căutare.

etica inteligenței artificiale

Astăzi, peste 37% din toate companiile folosesc AI într-un fel sau altul.

Cu toate acestea, dezvoltarea produselor bazate pe inteligență artificială depășește doar tehnologia.

Companiile se îngrijorează și de etica Inteligenței Artificiale – preocuparea comportamentului moral atunci când proiectează, construiesc, folosesc și tratează sistemele AI. Există multe întrebări care apar adesea atunci când se dezvoltă produse bazate pe inteligență artificială:

Pot sistemele AI să ia decizii etice? Ce probleme poate cauza Inteligența Artificială în ceea ce privește comportamentul moral? Este posibil să prevenim situațiile neetice? Ce se întâmplă când un sistem AI face o greșeală?

Nu există un răspuns ușor la aceste întrebări. De fapt, unele dintre ele sunt atât de complicate încât nu au deloc răspunsuri definitive . Pentru a înțelege mai bine aceste probleme, astăzi vom analiza etica inteligenței artificiale din lentila mașinilor cu conducere autonomă ale lui Welmo.

Deci, haideți să ne aruncăm direct în ea:

Etica inteligenței artificiale: dilema mașinilor care se conduc singure

Începând cu Google Self-Driving Car Project în 2009, până când a devenit o subsidiară de sine stătătoare în decembrie 2016, compania de dezvoltare tehnologică Waymo a lansat primul său serviciu comercial de mașini cu conducere autonomă în decembrie 2018.

Până în octombrie 2018, mașina autonomă a parcurs peste 10 milioane de mile de condus pe drumurile publice și uimitoarea 7 miliarde de mile simulate într-un program de lume virtuală numit Carcraft.

etica inteligenței artificiale

Cu toate acestea, în ciuda faptului că uimește lumea cu o tehnologie revoluționară bazată pe autonomie deplină, cu senzori care oferă vederi la 360 de grade și lasere care sunt capabile să detecteze obiecte de până la 300 de metri distanță, compania evaluată la peste 100 de miliarde de dolari nu a rezolvat încă unele importante. provocări morale .

Pentru a explica aceste provocări etice într-un exemplu practic, să aruncăm o privire la acest videoclip numit The ethical dilema of self-driving cars de Patrick Lin și să-l analizăm din perspectiva Magna Carta:

dilema etică a mașinilor care conduce singur

Etica inteligenței artificiale: dilema etică a mașinilor cu conducere autonomă (vizionați videoclipul)

În acest experiment de gândire, Patrick Lin ne prezintă un caz practic în care o mașină cu conducere autonomă, îmbrăcată din toate părțile pe drum, este amenințată de căderea unui obiect greu și trebuie să ia o decizie importantă - virați la stânga în un SUV, virați direct într-o motocicletă sau continuați drept și fiți lovit de obiect.

În această situație, Patrick Lin pune următoarea întrebare bazată pe moral:

Ar trebui ca mașina să prioritizeze siguranța pasagerului lovind motocicleta, să minimizeze pericolul pentru ceilalți, nevizând (dar riscând viața pasagerului) sau să lovească SUV-ul? Care ar fi cea mai etică decizie în acest caz?

În acest exercițiu mental, Patrick Lin afirmă că, dacă decizia trebuie luată de o persoană care conduce manual un vehicul obișnuit, ar putea fi interpretată mai degrabă ca o reacție impulsivă, bazată pe panică, decât ca o decizie reală.

Cu toate acestea, în cazul în care un vehicul cu conducere autonomă ia o decizie bazată pe situații și circumstanțe preprogramate, aceasta ar fi considerată o „ omucidere premeditată ”?

Rezultatele posibilelor accidente vor fi stabilite cu luni în avans de către programatori? Ce factori ar trebui luați în considerare în prealabil pentru a minimiza daunele?

Experimentul de gândire condus de Patrick Lin lasă mult loc pentru înțelegerea, analiza și implementarea inteligenței artificiale.

Luând în considerare posibilele scenarii viitoare ca acesta, să aruncăm o privire la ce provocări va trebui să le rezolve Waymo pentru a reuși cu mașinile sale autonome.

Echilibrul puterii și deciziilor mașinii

Fără îndoială, una dintre principalele provocări pentru Waymo și alte companii care dezvoltă tehnologie de conducere autonomă rămâne în determinarea echilibrului de putere între oameni și mașini – în ce moment ar trebui să treacă puterea de la mașini la oameni și de la oameni la mașini?

Putem fi vreodată pe deplin și necondiționat dependenți de ei?

În această etapă a unei tehnologii încă în curs de dezvoltare, probabil că nu. Acest lucru devine și mai clar când ne uităm la prăbușirea recentă din Etiopia a Boeing 737 Max, unde sistemul anti-oralizare MCAS a forțat automat să coboare nasul avionului din cauza citirilor incorecte ale senzorului, făcând piloții practic incapabili să facă nimic pentru a corecta eroarea mașinii.

exemple de declarații de misiune

I s-a acordat sistemului prea multă putere și prioritate față de intervenția umană? Deși este adevărat că inteligența artificială reduce erorile umane într-o măsură uriașă, aceasta nu înseamnă că eroarea mașinii nu se va întâmpla la un moment dat al procesului.

Alegere personală și polarizare

Următoarea reflecție când vine vorba de etica inteligenței artificiale are de-a face cu alegerea personală și polatizarea.

Este unul dintre cele mai mari aspecte când vine vorba de Magna Carta – un ghid pentru incluziune și corectitudine în economia globală a inteligenței artificiale, prezentat de experții Olaf Groth, Mark Nitzberg și Mark Esposito.

Acest ghid are scopul de a sprijini organizațiile în dezvoltarea unei strategii AI de succes, cu accent pe etica Inteligenței Artificiale. Ea ridică întrebări majore cu privire la gradul de alegere umană și de includere în dezvoltarea AI.

Cum vom guverna această nouă lume curajoasă a meritocrației mașinilor? Mașinile vor elimina alegerea personală?

etica inteligenței artificiale

În timp ce alegerea personală și polarizarea sunt unele dintre aspectele cheie ale Magna Carta, tehnologia de conducere autonomă ar putea să nu aibă neapărat un impact negativ puternic asupra oamenilor și a vieții lor de zi cu zi.

Acest tip de tehnologie este conceput cu ideea de a lua decizii mai bune, mai rapide și mai prietenoase cu mediul care ar ajunge să beneficieze practic toți utilizatorii acestui serviciu. Ar putea reduce alegerea personală într-o anumită măsură, dar nu cred că o va elimina complet.

Judecăți, discriminare și părtinire

După cum am discutat deja în prealabil, mașinile cu inteligență artificială vor lua decizii cu privire la siguranța noastră care ar putea compromite bunăstarea celorlalți dacă ar fi deja preprogramate să „reacționeze” într-un anumit mod în funcție de situație.

După cum am văzut în exemplul în care mașina este amenințată de un obiect greu, ar fi prioritatea reducerea la minimum a vătămării generale sau salvarea proprietarului vehiculului care se conduce singur?

După cum întreabă Patrick Lin, ați alege o mașină care să salveze întotdeauna cât mai multe vieți posibil într-un accident sau una care să vă salveze cu orice preț? Acestea sunt doar câteva dintre întrebările care apar atunci când vine vorba de etica Inteligenței Artificiale.

inteligența artificială google

Mai mult, ce s-ar întâmpla dacă mașina începe să analizeze datele pe baza istoricului personal al unui programator, a predispoziției și a prejudecăților nevăzute? Există vreo garanție că deciziile pe care le iau mașinile autonome vor fi întotdeauna complet obiective și cine le-ar decide?

Programatori, companii, poate chiar guverne? Care este posibilitatea discriminării mașinilor pe baza algoritmilor și a anumitor modele de recunoaștere? În acest caz, cred că tehnologia de auto-conducere nu este încă conformă .

Concluzie

În concluzie, cred că cheia pentru a răspunde și a rezolva aceste întrebări etice ar fi echilibrarea puterii dintre mașini și oameni și să decidă în ce măsură mașinile (în acest caz, mașinile cu conducere autonomă) ar fi capabile să depindă de viață. deciziilor.

Cred că, deoarece tehnologia abia se dezvoltă, oamenii ar trebui să aibă puterea și prioritatea de a lua decizii bazate pe moral, în timp ce mașinile evoluează și devin capabile să ia decizii obiective care să minimizeze daunele pentru toată lumea.

Ce părere aveți despre etica inteligenței artificiale? Ar trebui oamenii să domnească peste mașini, mașinile peste oameni sau trebuie să existe un echilibru bine calculat? Anunță-mă în comentariile de mai jos! Dacă ți-a plăcut acest articol, s-ar putea să-ți placă și 12 moduri în care învățarea automată poate îmbunătăți marketingul.