Ethik der künstlichen Intelligenz: Der Fall selbstfahrender Autos

Veröffentlicht: 2022-05-06

Eine Fallstudie zur Ethik der künstlichen Intelligenz – Welmos selbstfahrende Autos.

Künstliche Intelligenz oder einfach KI war schon immer ein faszinierendes (und ein bisschen beängstigendes) Konzept. Aber egal wie man es betrachtet, es lässt sich nicht leugnen, dass KI eine große Rolle in unseren täglichen Aktivitäten spielt, auch wenn wir es manchmal nicht erkennen.

Wenn wir darüber nachdenken, denken wir an Roboter und selbstfahrende Autos – aber es ist auch präsent, wenn wir etwas Einfaches tun, wie zum Beispiel einen Begriff bei Google nachschlagen. Ja, das ist richtig – KI ist tief in viele Produkte von Google integriert, einschließlich seiner berühmten Suchmaschine.

Ethik der künstlichen Intelligenz

Heute setzen mehr als 37 % aller Unternehmen KI auf die eine oder andere Weise ein.

Die Entwicklung von KI-basierten Produkten geht jedoch über die reine Technologie hinaus.

Unternehmen sorgen sich auch um die Ethik der künstlichen Intelligenz – die Sorge um das moralische Verhalten beim Entwerfen, Bauen, Verwenden und Behandeln von KI-Systemen. Bei der Entwicklung von KI-basierten Produkten stellen sich häufig viele Fragen:

Können KI-Systeme ethische Entscheidungen treffen? Welche Probleme kann Künstliche Intelligenz in Bezug auf moralisches Verhalten verursachen? Ist es möglich, unethische Situationen zu verhindern? Was passiert, wenn ein KI-System einen Fehler macht?

Auf diese Fragen gibt es keine einfache Antwort. Tatsächlich sind einige von ihnen so kompliziert, dass sie überhaupt keine endgültigen Antworten haben. Um diese Probleme besser zu verstehen, werden wir uns heute mit der Ethik der künstlichen Intelligenz aus der Perspektive der selbstfahrenden Autos von Welmo befassen.

Tauchen wir also gleich ein:

Ethik der künstlichen Intelligenz: das Dilemma selbstfahrender Autos

Das Technologieentwicklungsunternehmen Waymo, das 2009 als Google Self-Driving Car Project entstand und im Dezember 2016 eine eigenständige Tochtergesellschaft wurde, startete im Dezember 2018 seinen ersten kommerziellen Service für selbstfahrende Autos.

Bis Oktober 2018 hatte das autonome Auto über 10 Millionen Meilen auf öffentlichen Straßen und die erstaunlichen 7 Milliarden Simulationsmeilen in einem Virtual-World-Programm namens Carcraft zurückgelegt.

Ethik der künstlichen Intelligenz

Doch obwohl das Unternehmen mit einem Wert von mehr als 100 Milliarden US-Dollar die Welt mit einer revolutionären Technologie auf der Grundlage vollständiger Autonomie mit Sensoren, die 360-Grad-Ansichten und Laser, die Objekte in einer Entfernung von bis zu 300 Metern erkennen können, verblüfft , noch einige wichtige Probleme lösen muss moralische Herausforderungen .

Um diese ethischen Herausforderungen an einem praktischen Beispiel zu erläutern, werfen wir einen Blick auf dieses Video mit dem Titel Das ethische Dilemma selbstfahrender Autos von Patrick Lin und analysieren es aus der Perspektive der Magna Carta:

Ethisches Dilemma selbstfahrender Autos

Ethik der künstlichen Intelligenz: Das ethische Dilemma selbstfahrender Autos (Video ansehen)

In diesem Gedankenexperiment stellt uns Patrick Lin einen praktischen Fall vor, in dem ein selbstfahrendes Auto, das von allen Seiten auf der Straße steht, durch den Sturz eines schweren Gegenstands bedroht wird und eine wichtige Entscheidung treffen muss – nach links ausweichen B. ein SUV, rechts in ein Motorrad ausweichen oder geradeaus weiterfahren und von dem Objekt getroffen werden.

In dieser Situation stellt Patrick Lin die folgende moralisch begründete Frage:

Sollte das Auto die Sicherheit des Beifahrers priorisieren, indem es das Motorrad trifft, die Gefahr für andere minimieren, indem es nicht ausweicht (aber das Leben des Beifahrers riskiert), oder den SUV anfahren? Was wäre in diesem Fall die ethischste Entscheidung?

In dieser mentalen Übung stellt Patrick Lin fest, dass, wenn die Entscheidung von einer Person getroffen wird, die manuell ein normales Fahrzeug fährt, dies eher als auf Panik basierende, impulsive Reaktion denn als tatsächliche Entscheidung interpretiert werden könnte.

Würde jedoch in dem Fall, in dem ein selbstfahrendes Fahrzeug eine Entscheidung auf der Grundlage vorprogrammierter Situationen und Umstände trifft, dies als „ vorsätzliche Tötung “ angesehen werden?

Werden die Folgen möglicher Unfälle Monate im Voraus von Programmierern bestimmt? Welche Faktoren sollten im Vorfeld berücksichtigt werden, um Schäden zu minimieren?

Das Gedankenexperiment von Patrick Lin lässt viel Raum für das Verständnis, die Analyse und die Umsetzung von künstlicher Intelligenz.

Lassen Sie uns angesichts möglicher Zukunftsszenarien wie diesem einen Blick darauf werfen, welche Herausforderungen Waymo lösen muss, um mit seinen selbstfahrenden Autos erfolgreich zu sein.

Machtverhältnisse & Maschinenentscheidungen

Zweifellos bleibt eine der größten Herausforderungen für Waymo und andere Unternehmen, die selbstfahrende Technologien entwickeln, die Bestimmung des Machtgleichgewichts zwischen Mensch und Maschine – an welchem ​​Punkt sollte die Macht von Maschine zu Mensch und von Mensch zu Maschine wechseln?

Können wir jemals vollständig und bedingungslos von ihnen abhängig sein?

In diesem Stadium einer noch jungen Technologie wahrscheinlich nicht. Dies wird noch deutlicher, wenn man sich den jüngsten Absturz der Boeing 737 Max in Äthiopien ansieht, bei dem das Anti-Stall-MCAS-System die Nase des Flugzeugs aufgrund falscher Sensorwerte automatisch nach unten drückte, was die Piloten praktisch unfähig machte, etwas dagegen zu unternehmen Maschinenfehler.

Mission Statement Beispiele

Wurde dem System zu viel Macht und Priorität gegenüber menschlichem Eingreifen eingeräumt? Es stimmt zwar, dass künstliche Intelligenz menschliche Fehler in hohem Maße reduziert, aber das bedeutet nicht, dass an einem bestimmten Punkt des Prozesses keine Maschinenfehler auftreten.

Persönliche Wahl & Polarisierung

Die nächste Überlegung zur Ethik der künstlichen Intelligenz hat mit persönlicher Wahl und Polatisierung zu tun.

Es ist einer der größten Aspekte, wenn es um Magna Carta geht – einen Leitfaden für Inklusivität und Fairness in der globalen KI-Wirtschaft, präsentiert von den Experten Olaf Groth, Mark Nitzberg und Mark Esposito.

Dieser Leitfaden hat den Zweck, Organisationen bei der Entwicklung einer erfolgreichen KI-Strategie mit Schwerpunkt auf der Ethik der künstlichen Intelligenz zu unterstützen. Es wirft wichtige Fragen zum Grad der menschlichen Entscheidungsfreiheit und Einbeziehung in die KI-Entwicklung auf.

Wie werden wir diese schöne neue Welt der maschinellen Meritokratie regieren? Werden Maschinen die persönliche Wahl eliminieren?

Ethik der künstlichen Intelligenz

Während persönliche Entscheidungen und Polarisierung einige der Schlüsselaspekte der Magna Carta sind, muss die Technologie des autonomen Fahrens nicht unbedingt einen starken negativen Einfluss auf die Menschen und ihr tägliches Leben haben.

Diese Art von Technologie wurde mit der Idee entwickelt, bessere, schnellere und umweltfreundlichere Entscheidungen zu treffen, von denen praktisch alle Nutzer dieses Dienstes profitieren würden. Es könnte die persönliche Wahlfreiheit bis zu einem gewissen Grad einschränken, aber ich glaube nicht, dass es sie vollständig eliminieren wird.

Urteile, Diskriminierung und Voreingenommenheit

Wie wir bereits zuvor besprochen haben, werden Maschinen mit künstlicher Intelligenz Entscheidungen über unsere Sicherheit treffen , die das Wohlergehen anderer gefährden könnten, wenn sie bereits vorprogrammiert wären, je nach Situation auf eine bestimmte Weise zu „reagieren“.

Wie wir am Beispiel des Autos gesehen haben, das von einem schweren Gegenstand bedroht wird, würde die Priorität darin bestehen, den Gesamtschaden zu minimieren oder den Besitzer des selbstfahrenden Fahrzeugs zu retten?

Würden Sie, wie Patrick Lin fragt, ein Auto wählen, das bei einem Unfall immer so viele Leben wie möglich rettet, oder eines, das Sie um jeden Preis retten würde? Dies sind nur einige der Fragen, die sich stellen, wenn es um die Ethik der künstlichen Intelligenz geht.

google künstliche intelligenz

Was würde außerdem passieren, wenn das Auto beginnt, Daten basierend auf der persönlichen Geschichte, Veranlagung und unsichtbaren Vorurteilen eines Programmierers zu analysieren? Gibt es eine Garantie dafür, dass die Entscheidungen, die selbstfahrende Autos treffen, immer völlig objektiv sind, und wer würde sie treffen?

Programmierer, Unternehmen, vielleicht sogar Regierungen? Was ist die Möglichkeit der maschinellen Diskriminierung basierend auf Algorithmen und bestimmter Mustererkennung? In diesem Fall denke ich, dass die Selbstfahrtechnologie noch nicht konform ist.

Fazit

Abschließend glaube ich, dass der Schlüssel zur Beantwortung und Lösung dieser ethischen Fragen darin liegen würde, die Macht zwischen Maschinen und Menschen auszugleichen und zu entscheiden, inwieweit Maschinen (in diesem Fall selbstfahrende Autos) in der Lage wären, Leben abhängig zu machen Entscheidungen.

Ich denke, da die Technologie noch kaum entwickelt ist, sollten Menschen die Macht und Priorität haben, moralisch fundierte Entscheidungen zu treffen, während sich Maschinen weiterentwickeln und in der Lage werden, objektive Entscheidungen zu treffen , die den Schaden für alle minimieren.

Was denken Sie über die Ethik der künstlichen Intelligenz? Soll der Mensch über die Maschine herrschen, die Maschine über den Menschen oder muss es ein wohlkalkuliertes Gleichgewicht geben? Lass es mich in den Kommentaren unten wissen! Wenn Ihnen dieser Artikel gefallen hat, gefallen Ihnen vielleicht auch 12 Möglichkeiten, wie maschinelles Lernen das Marketing verbessern kann.