Éthique de l'intelligence artificielle : le cas des voitures autonomes

Publié: 2022-05-06

Une étude de cas sur l'éthique de l'intelligence artificielle - les voitures autonomes de Welmo.

L'intelligence artificielle, ou simplement l'IA, a toujours été un concept fascinant (et un peu effrayant). Cependant, peu importe comment vous le regardez, il est indéniable que l'IA joue un rôle énorme dans nos activités quotidiennes, même si nous ne nous en rendons parfois pas compte.

Quand on y pense, on pense aux robots et aux voitures autonomes - mais il est présent même lorsque nous faisons quelque chose de simple, comme rechercher un terme sur Google. Oui, c'est vrai - l'IA est profondément intégrée dans de nombreux produits de Google, y compris son célèbre moteur de recherche.

éthique de l'intelligence artificielle

Aujourd'hui, plus de 37 % de toutes les entreprises utilisent l'IA d'une manière ou d'une autre.

Cependant, le développement de produits basés sur l'IA va au-delà de la simple technologie.

Les entreprises s'inquiètent également de l'éthique de l'intelligence artificielle - la préoccupation du comportement moral lorsqu'elles conçoivent, construisent, utilisent et traitent des systèmes d'IA. De nombreuses questions se posent souvent lors du développement de produits basés sur l'IA :

Les systèmes d'IA peuvent-ils prendre des décisions éthiques ? Quels problèmes l'intelligence artificielle peut-elle causer en termes de comportement moral ? Est-il possible de prévenir des situations contraires à l'éthique ? Que se passe-t-il lorsqu'un système d'IA fait une erreur ?

Il n'y a pas de réponse facile à ces questions. En fait, certains d'entre eux sont si compliqués qu'ils n'ont aucune réponse définitive . Pour mieux comprendre ces enjeux, nous nous pencherons aujourd'hui sur l'éthique de l'intelligence artificielle sous l'angle des voitures autonomes de Welmo.

Alors, plongeons-y directement:

Éthique de l'intelligence artificielle : le dilemme des voitures autonomes

Créée sous le nom de Google Self-Driving Car Project en 2009 jusqu'à devenir une filiale autonome en décembre 2016, la société de développement technologique Waymo a lancé son premier service commercial de voiture autonome en décembre 2018.

En octobre 2018, la voiture autonome avait parcouru plus de 10 millions de kilomètres de conduite sur les routes publiques et les étonnantes 7 milliards de kilomètres de simulation sur un programme de monde virtuel appelé Carcraft.

éthique de l'intelligence artificielle

Cependant, malgré l'étourdissement du monde avec une technologie révolutionnaire basée sur une autonomie totale avec des capteurs offrant des vues à 360 degrés et des lasers capables de détecter des objets jusqu'à 300 mètres, l'entreprise évaluée à plus de 100 milliards de dollars n'a pas encore résolu d'importants problèmes. défis moraux .

Pour expliquer ces défis éthiques dans un exemple pratique, regardons cette vidéo intitulée Le dilemme éthique des voitures autonomes par Patrick Lin , et analysons-la du point de vue de la Magna Carta :

dilemme éthique des voitures autonomes

Éthique de l'intelligence artificielle : le dilemme éthique des voitures autonomes (voir la vidéo)

Dans cette expérience de pensée, Patrick Lin nous présente un cas pratique dans lequel une voiture autonome, encaissée de toutes parts sur la route, est menacée par la chute d'un objet lourd et doit prendre une décision importante : virer à gauche dans un SUV, faire une embardée à droite dans une moto ou continuer tout droit et se faire heurter par l'objet.

Dans cette situation, Patrick Lin pose la question morale suivante :

La voiture doit-elle donner la priorité à la sécurité du passager en heurtant la moto, minimiser le danger pour les autres en ne déviant pas (mais en risquant la vie du passager) ou heurter le SUV ? Quelle serait la décision la plus éthique dans ce cas ?

Dans cet exercice mental, Patrick Lin déclare que si la décision doit être prise par une personne conduisant manuellement un véhicule ordinaire, cela pourrait être interprété comme une réaction impulsive basée sur la panique plutôt qu'une décision réelle.

Cependant, dans le cas où un véhicule autonome prend une décision basée sur des situations et des circonstances préprogrammées, cela serait-il considéré comme un « homicide prémédité » ?

Les conséquences d'éventuels accidents seront-elles déterminées des mois à l'avance par les programmeurs ? Quels facteurs doivent être pris en compte au préalable afin de minimiser les dommages ?

L'expérience de pensée menée par Patrick Lin laisse une large place à la compréhension, l'analyse et la mise en œuvre de l'intelligence artificielle.

En considérant des scénarios futurs possibles comme celui-ci, examinons les défis que Waymo devra résoudre pour réussir avec ses voitures autonomes.

Équilibre des décisions de puissance et de la machine

Sans aucun doute, l'un des principaux défis pour Waymo et d'autres entreprises développant une technologie d'auto-conduite reste la détermination de l'équilibre du pouvoir entre les humains et les machines - à quel moment le pouvoir doit-il passer des machines aux humains, et des humains aux machines ?

Pouvons-nous jamais être totalement et inconditionnellement dépendants d'eux ?

A ce stade d'une technologie encore émergente, probablement pas. Cela devient encore plus clair lorsque l'on regarde le récent crash en Éthiopie du Boeing 737 Max, où le système anti-décrochage MCAS a automatiquement forcé le nez de l'avion en raison de lectures incorrectes des capteurs, rendant les pilotes pratiquement incapables de faire quoi que ce soit pour corriger le erreur de la machine.

exemples d'énoncé de mission

Le système a-t-il reçu trop de pouvoir et de priorité sur l'intervention humaine ? S'il est vrai que l'intelligence artificielle réduit considérablement l'erreur humaine, cela ne signifie pas qu'une erreur machine ne se produira pas à un moment donné du processus.

Choix personnel et polarisation

La réflexion suivante en matière d'éthique de l'intelligence artificielle concerne le choix personnel et la polarisation.

C'est l'un des aspects les plus importants de la Magna Carta - un guide pour l'inclusivité et l'équité dans l'économie mondiale de l'IA, présenté par les experts Olaf Groth, Mark Nitzberg et Mark Esposito.

Ce guide a pour but d'aider les organisations à développer une stratégie d'IA réussie, en mettant l'accent sur l'éthique de l'intelligence artificielle. Cela soulève des questions majeures sur le degré de choix humain et d'inclusion dans le développement de l'IA.

Comment allons-nous gouverner ce nouveau monde courageux de méritocratie mécanique ? Les machines élimineront-elles le choix personnel ?

éthique de l'intelligence artificielle

Bien que le choix personnel et la polarisation soient quelques-uns des aspects clés de la Magna Carta, la technologie de conduite autonome n'a pas nécessairement un impact négatif important sur les personnes et leur vie quotidienne.

Ce type de technologie est conçu dans l'idée de prendre des décisions meilleures, plus rapides et plus respectueuses de l'environnement qui profiteraient à pratiquement tous les utilisateurs de ce service. Cela pourrait réduire le choix personnel dans une certaine mesure, mais je ne pense pas que cela l'éliminera complètement.

Jugements, discrimination et préjugés

Comme nous en avons déjà discuté précédemment, les machines dotées d'intelligence artificielle prendront des décisions concernant notre sécurité qui pourraient compromettre le bien-être des autres si elles étaient déjà préprogrammées pour "réagir" d'une certaine manière en fonction de la situation.

Comme nous l'avons vu dans l'exemple de la voiture menacée par un objet lourd, la priorité serait-elle de minimiser les dommages globaux ou de sauver le propriétaire du véhicule autonome ?

Comme le demande Patrick Lin, choisiriez-vous une voiture qui sauve toujours le plus de vies possible en cas d'accident, ou une voiture qui vous sauverait à tout prix ? Ce ne sont là que quelques-unes des questions qui se posent en matière d'éthique de l'intelligence artificielle.

intelligence artificielle google

De plus, que se passerait-il si la voiture commençait à analyser des données basées sur l'histoire personnelle, la prédisposition et les préjugés invisibles d'un programmeur ? Y a-t-il une garantie que les décisions prises par les voitures autonomes seront toujours totalement objectives, et qui les déciderait ?

Des programmeurs, des entreprises, peut-être même des gouvernements ? Quelle est la possibilité d'une discrimination machine basée sur des algorithmes et certaines reconnaissances de formes ? Dans ce cas, je pense que la technologie de conduite autonome n'est pas encore conforme .

Conclusion

En conclusion, je crois que la clé pour répondre et résoudre ces questions éthiques serait d'équilibrer le pouvoir entre les machines et les humains, et de décider dans quelle mesure les machines (dans ce cas, les voitures autonomes) pourraient rendre la vie dépendante les décisions.

Je pense que la technologie émergeant à peine, les humains devraient avoir le pouvoir et la priorité de prendre des décisions morales tandis que les machines évoluent et deviennent capables de prendre des décisions objectives qui minimisent les dommages pour tout le monde.

Que pensez-vous de l'éthique de l'intelligence artificielle ? L'humain doit-il régner sur les machines, les machines sur les humains, ou faut-il un équilibre bien calculé ? Faites-le moi savoir dans les commentaires ci-dessous! Si vous avez aimé cet article, vous aimerez peut-être aussi 12 façons dont l'apprentissage automatique peut améliorer le marketing.