Etica dell'intelligenza artificiale: il caso delle auto a guida autonoma
Pubblicato: 2022-05-06Un caso di studio sull'etica dell'intelligenza artificiale: le auto a guida autonoma di Welmo.
L'intelligenza artificiale, o semplicemente AI, è sempre stata un concetto affascinante (e un po' spaventoso). Tuttavia, non importa come la guardi, non si può negare che l'IA svolge un ruolo enorme nelle nostre attività quotidiane, anche se a volte non ce ne rendiamo conto.
Quando ci pensiamo, pensiamo ai robot e alle auto a guida autonoma, ma è presente anche quando facciamo qualcosa di semplice, come cercare un termine su Google. Sì, è vero: l'IA è profondamente integrata in molti prodotti di Google, incluso il suo famoso motore di ricerca.
Oggi, oltre il 37% di tutte le aziende utilizza l'IA in un modo o nell'altro.
Tuttavia, lo sviluppo di prodotti basati sull'intelligenza artificiale va oltre la semplice tecnologia.
Le aziende si preoccupano anche dell'etica dell'intelligenza artificiale, la preoccupazione del comportamento morale mentre progettano, costruiscono, utilizzano e trattano i sistemi di intelligenza artificiale. Ci sono molte domande che sorgono spesso quando si sviluppano prodotti basati sull'intelligenza artificiale:
I sistemi di IA possono prendere decisioni etiche? Quali problemi può causare l'Intelligenza Artificiale in termini di comportamento morale? È possibile prevenire situazioni non etiche? Cosa succede quando un sistema di intelligenza artificiale commette un errore?
Non c'è una risposta facile a queste domande. In effetti, alcuni di loro sono così complicati da non avere alcuna risposta definitiva . Per comprendere meglio questi problemi, oggi esamineremo l'etica dell'intelligenza artificiale dall'obiettivo delle auto a guida autonoma di Welmo.
Quindi, tuffiamoci subito:
Etica dell'intelligenza artificiale: il dilemma delle auto a guida autonoma
Nata come Google Self-Driving Car Project nel 2009 fino a diventare una consociata autonoma nel dicembre del 2016, la società di sviluppo tecnologico Waymo ha lanciato il suo primo servizio commerciale di auto a guida autonoma nel dicembre 2018.
Entro ottobre 2018, l'auto a guida autonoma aveva completato oltre 10 milioni di miglia di guida su strade pubbliche e gli incredibili 7 miliardi di miglia di simulazione su un programma del mondo virtuale chiamato Carcraft.
Tuttavia, nonostante abbia sbalordito il mondo con una tecnologia rivoluzionaria basata sulla piena autonomia con sensori che forniscono viste a 360 gradi e laser in grado di rilevare oggetti fino a 300 metri di distanza, l'azienda valutata oltre $ 100 miliardi deve ancora risolvere alcuni importanti sfide morali .
Per spiegare queste sfide etiche in un esempio pratico, diamo un'occhiata a questo video intitolato Il dilemma etico delle auto a guida autonoma di Patrick Lin e analizziamolo dal punto di vista della Magna Carta:
Etica dell'intelligenza artificiale: il dilemma etico delle auto a guida autonoma (guarda il video)
In questo esperimento mentale, Patrick Lin ci presenta un caso pratico in cui un'auto a guida autonoma, inscatolata da tutti i lati della strada, è minacciata dalla caduta di un oggetto pesante e deve prendere una decisione importante : sterzare a sinistra in un SUV, sterza a destra contro una motocicletta o prosegui dritto e vieni colpito dall'oggetto.
In questa situazione, Patrick Lin pone la seguente domanda moralmente fondata:
L'auto dovrebbe dare la priorità alla sicurezza del passeggero investendo la motocicletta, ridurre al minimo il pericolo per gli altri non sterzando (ma rischiando la vita del passeggero) o colpire il SUV? Quale sarebbe la decisione più etica in questo caso?
In questo esercizio mentale, Patrick Lin afferma che se la decisione deve essere presa da una persona che guida manualmente un veicolo normale, potrebbe essere interpretata come una reazione impulsiva basata sul panico piuttosto che come una decisione effettiva.
Tuttavia, nel caso in cui un veicolo a guida autonoma prenda una decisione in base a situazioni e circostanze preprogrammate, sarebbe considerato un " omicidio premeditato "?
Gli esiti di possibili incidenti saranno determinati con mesi di anticipo dai programmatori? Quali fattori dovrebbero essere presi in considerazione in anticipo per ridurre al minimo i danni?
L'esperimento mentale condotto da Patrick Lin lascia molto spazio alla comprensione, all'analisi e all'implementazione dell'intelligenza artificiale.
Considerando possibili scenari futuri come questo, diamo un'occhiata a quali sfide Waymo dovrà risolvere per avere successo con le sue auto a guida autonoma.
Equilibrio tra potere e decisioni della macchina
Indubbiamente, una delle principali sfide per Waymo e altre aziende che sviluppano la tecnologia di guida autonoma rimane nel determinare l'equilibrio di potere tra uomo e macchina : a che punto l'alimentazione dovrebbe passare dalle macchine agli esseri umani e dagli esseri umani alle macchine?

Possiamo mai essere completamente e incondizionatamente dipendenti da loro?
In questa fase di una tecnologia ancora emergente, probabilmente no. Ciò diventa ancora più chiaro se si osserva il recente incidente in Etiopia del Boeing 737 Max, in cui il sistema anti-stallo MCAS ha forzato automaticamente il muso dell'aereo verso il basso a causa di letture errate dei sensori, rendendo i piloti praticamente incapaci di fare qualsiasi cosa per correggere il errore della macchina
Al sistema è stato dato troppo potere e priorità rispetto all'intervento umano? Sebbene sia vero che l'intelligenza artificiale riduce enormemente l'errore umano, ciò non significa che l'errore della macchina non si verificherà ad un certo punto del processo.
Scelta personale e polarizzazione
La prossima riflessione quando si parla di etica dell'intelligenza artificiale ha a che fare con la scelta personale e la polarizzazione.
È uno degli aspetti più importanti quando si parla di Magna Carta, una guida per l'inclusione e l'equità nell'economia globale dell'IA, presentata dagli esperti Olaf Groth, Mark Nitzberg e Mark Esposito.
Questa guida ha lo scopo di supportare le organizzazioni nello sviluppo di una strategia di intelligenza artificiale di successo, con particolare attenzione all'etica dell'intelligenza artificiale. Solleva importanti interrogativi sul grado di scelta umana e di inclusione nello sviluppo dell'IA.
Come governiamo questo nuovo mondo coraggioso di meritocrazia delle macchine? Le macchine elimineranno la scelta personale?
Sebbene la scelta personale e la polarizzazione siano alcuni degli aspetti chiave della Magna Carta, la tecnologia a guida autonoma potrebbe non avere necessariamente un forte impatto negativo sulle persone e sulla loro vita quotidiana.
Questo tipo di tecnologia è progettato con l'idea di prendere decisioni migliori, più rapide e più rispettose dell'ambiente che finirebbero per avvantaggiare praticamente tutti gli utenti di questo servizio. Potrebbe ridurre in una certa misura la scelta personale, ma non credo che la eliminerà del tutto.
Giudizi, discriminazioni e pregiudizi
Come abbiamo già discusso in precedenza, le macchine con intelligenza artificiale prenderanno decisioni sulla nostra sicurezza che potrebbero compromettere il benessere degli altri se fossero già preprogrammate per "reagire" in un certo modo a seconda della situazione.
Come abbiamo visto nell'esempio dell'auto minacciata da un oggetto pesante, la priorità sarebbe ridurre al minimo i danni complessivi o salvare il proprietario del veicolo a guida autonoma?
Come chiede Patrick Lin, sceglieresti un'auto che salvi sempre quante più vite possibili in un incidente, o una che ti salverebbe ad ogni costo? Queste sono solo alcune delle domande che sorgono quando si parla di etica dell'Intelligenza Artificiale.
Inoltre, cosa accadrebbe se l'auto iniziasse ad analizzare i dati in base alla storia personale, alla predisposizione e ai pregiudizi invisibili di un programmatore? C'è qualche garanzia che le decisioni che prendono le auto a guida autonoma siano sempre completamente obiettive e chi le deciderebbe?
Programmatori, aziende, forse anche governi? Qual è la possibilità di discriminazione della macchina basata su algoritmi e determinati modelli di riconoscimento? In questo caso, penso che la tecnologia di guida autonoma non sia ancora conforme .
Conclusione
In conclusione, credo che la chiave per rispondere e risolvere queste domande etiche sarebbe bilanciare il potere tra macchine e esseri umani e decidere fino a che punto le macchine (in questo caso, le auto a guida autonoma) sarebbero in grado di rendere la vita dipendente decisioni.
Penso che poiché la tecnologia sta ancora emergendo a malapena, gli esseri umani dovrebbero avere il potere e la priorità di prendere decisioni basate sulla morale mentre le macchine si evolvono e diventano capaci di prendere decisioni obiettive che riducono al minimo i danni per tutti.
Cosa ne pensi dell'etica dell'intelligenza artificiale? Gli esseri umani dovrebbero regnare sulle macchine, le macchine sugli esseri umani o ci deve essere un equilibrio ben calcolato? Fammi sapere nei commenti qui sotto! Se ti è piaciuto questo articolo, potrebbe piacerti anche 12 modi in cui l'apprendimento automatico può migliorare il marketing.