paint-brush
Ethische KI und autonome Fahrzeuge: Verfechtung moralischer Prinzipien im Zeitalter selbstfahrender Autosvon@nimit
539 Lesungen
539 Lesungen

Ethische KI und autonome Fahrzeuge: Verfechtung moralischer Prinzipien im Zeitalter selbstfahrender Autos

von Nimit6m2024/03/21
Read on Terminal Reader

Zu lang; Lesen

Der Artikel untersucht die moralischen Herausforderungen, denen autonome Fahrzeuge (AVs) insbesondere auf höheren Autonomiestufen gegenüberstehen, aus der Perspektive ethischer Rahmenbedingungen wie dem Trolley-Problem. Es wird eine Fallstudie eines Uber-Vorfalls besprochen, die die Themen KI-Entscheidungsfindung, sensorische Zuverlässigkeit und rechtliche Verantwortlichkeit hervorhebt. Abschließend wird die Notwendigkeit klarer ethischer und rechtlicher Richtlinien für AVs betont, um das gesellschaftliche Vertrauen und die verantwortungsvolle Weiterentwicklung der autonomen Technologie sicherzustellen.
featured image - Ethische KI und autonome Fahrzeuge: Verfechtung moralischer Prinzipien im Zeitalter selbstfahrender Autos
Nimit HackerNoon profile picture
0-item

Das Konzept autonomer Fahrzeuge (AVs) löst seit langem eine Debatte über die Ethik der übertragenen Entscheidungsautonomie auf Straßen aus. Die Society of Automotive Engineers legt 6 Autonomiestufen fest, die branchenweit offiziell zur Differenzierung der AV-Fähigkeiten verwendet werden.


Die AV-Stufen 0–2 gibt es bereits auf kommerziellen Märkten. Stufe 3 ist der erste signifikante Leistungssprung. Es beschreibt Fahrzeuge, die für kurze Zeit selbstfahren können, aber einen menschlichen Fahrer erfordern, der bereit ist, einzugreifen, wenn das System dies verlangt. Die Stufen 4–5 gehen dann über die Umgebungserkennung hinaus. Dazu gehören Spitzentechnologien, die eine menschliche Eingriffsmöglichkeit völlig überflüssig machen. AVs der Stufe 4 können unter bestimmten Bedingungen eine gesamte Fahrt ohne menschliches Eingreifen absolvieren. Level 5 kann unter allen Umständen ganze Reisen absolvieren. Stufe 5 würde beispielsweise Fahrzeugen zugeordnet werden, die nicht einmal Lenkräder oder Pedale benötigen.


Die moralischen und ethischen Dilemmata, die im Zusammenhang mit diesen beiden höheren Ebenen der Autonomie entstehen, resultieren aus dem Verlust fast aller direkten Entscheidungsbefugnisse. Das korrekte Funktionieren von Kerntechnologien, die Fähigkeit, menschliches Leben und Prinzipien wertzuschätzen, Kompromisse und Verantwortlichkeit werden dann zu Themen sowohl im ethischen als auch im rechtlichen Rahmen.


Wir werden diese untersuchen, beginnend mit dem berüchtigten Trolley-Problem.

Das Trolley-Problem

Das Trolley-Problem ist ein Gedankenexperiment, das innerhalb des Zweiges der Philosophie namens Tugendethik entwickelt wurde und diskutiert, wie vorhersehbare Konsequenzen mit beabsichtigten Konsequenzen auf moralischer Ebene verglichen werden können. Die Hauptvariante, die von der britischen Philosophin Philippa Foot (1967) entwickelt wurde, lautet wie folgt:


Eine Straßenbahn fährt außer Kontrolle und kann nicht bremsen. Allerdings sind 5 Personen an diesen Gleisen festgebunden und die Straßenbahn kommt schnell auf sie zu. Sie stehen abseits der Gleise neben einem Hebel, der, wenn er gezogen wird, die Flugbahn des Wagens auf einen anderen Gleissatz umlenken würde. An dieser alternativen Strecke ist nur eine Person festgebunden, so dass die Straßenbahn derzeit 5 Menschen töten wird, aber wenn Sie handeln, könnte sich die Zahl auf nur einen reduzieren. Ziehen Sie den Hebel?

Ethische Rahmenbedingungen bei der Entscheidungsfindung

Das Trolley-Problem kann unter vielen ethischen Rahmenbedingungen betrachtet werden.


  • Konsequentialisten würden argumentieren, dass es besser ist, den Gesamtschaden im Ergebnis mit allen erforderlichen Mitteln zu reduzieren.
  • Deontologen würden argumentieren, dass es moralisch falscher ist, den Hebel zu betätigen und eine Person aktiv zu töten, als den Wagen seinen ordnungsgemäßen Weg fortsetzen zu lassen.
  • Utilitaristen würden argumentieren, dass die ethischste Entscheidung den größten Nutzen für die größte Zahl von Menschen bringt.
  • Rawlsianer würden argumentieren, dass alle Leben gleich seien und dass man, um Gerechtigkeit zu erreichen und möglichst fair zu handeln, den größeren Schaden verhindern müsse.
  • Eine auf Rechten basierende Ethik würde argumentieren, dass das Recht auf Leben absolut ist und nicht verletzt oder für irgendwelche Kompromisse geopfert werden sollte.


Unabhängig von der Ideologie steht unsere Pflicht, den Schaden für andere so gering wie möglich zu halten, in direktem Konflikt mit unserer Pflicht, die moralisch richtige Handlung zu wählen. Es ist die Fähigkeit, Entscheidungen und Kompromisse wie diese zu bewerten, die viele bei autonomen Fahrzeugen in Frage stellen. Wenn beispielsweise ein AV-Fahrzeug kurz vor einem Unfall steht, sollten die Insassen des Fahrzeugs Vorrang vor Fußgängern/anderen Fahrzeugen haben?


Bei der Ethik autonomer Fahrzeuge muss jedoch nicht nur die Fähigkeit, schwierige Entscheidungen zu treffen, berücksichtigt werden. Wenn sich die Menschen selbst nicht darauf einigen können, welcher ethische Rahmen das Trolley-Problem am besten lösen würde, wie sollen wir dann selbstfahrende Autos so programmieren, dass sie Kompromisse wie diese im Rahmen einer Ideologie abwägen?


Welche Grundwerte und Prinzipien sollten wir in die KI einprogrammieren?


Sollten wir wollen, dass positive Pflichten (die Anzahl der geretteten Leben) oder negative Pflichten (die Minimierung des aktiven Schadens) priorisiert werden?

Fallstudie

Im Jahr 2018 testete Uber in Arizona AV der Stufe 3, was zu einem tragischen Todesopfer bei Fußgängern führte – dem ersten durch AV verursachten Unfall überhaupt. Da es sich um Stufe 3 handelte, war ein Ersatzfahrer im Fahrzeug vorhanden, aber das reichte nicht aus. Da das Umgebungserkennungssystem Schwierigkeiten hatte, das Hindernis – in diesem Fall ein Fußgänger mit Fahrrad – korrekt zu identifizieren, wurde die Möglichkeit eines Schadens von den Warnsystemen des Autos nicht schnell genug erkannt. Als der Ersatzfahrer schließlich alarmiert wurde, die Kontrolle zu übernehmen, waren dem Fahrzeug bereits 0,2 Sekunden bis zum Aufprall und eine Geschwindigkeit von 69 km/h voraus.


In diesem Beispiel wird nicht unbedingt der Kompromiss zwischen direkter Schädigung von AV-Passagieren und Fußgängern außerhalb des Fahrzeugs erörtert, da die Ersatzfahrerin selbst nie Gefahr lief, Schaden zu nehmen. Es zeigt jedoch, ob wir uns auf die sensorische KI-Erkennung statt auf unsere eigene verlassen können und sollten und ob eine manuelle Übersteuerung in solchen Hochdruck- und Kurzzeitszenarien ein machbares Backup ist.


Es verdeutlicht auch das Problem der Übertragung der Autonomie, auch nur vorübergehend, auf einen AV aufgrund des Fehlens eines moralischen Akteurs, der für die Tötung verantwortlich ist. In diesem Fall zog Uber mehr als 90 andere AV-Fahrzeuge der Stufe 3 zurück, die es in Arizona getestet hatte, und glich mit der Familie des Opfers einen Vergleich. Dem Ersatzfahrer wurde hingegen fahrlässige Tötung vorgeworfen. Wurde ihr die Schuld zu Recht zugeschrieben oder hätte es am Fahrzeug liegen müssen – ist Letzteres überhaupt möglich?

Ethische KI

Die UNESCO weist darauf hin, dass bei den ethischen Rahmenbedingungen für KI die Vermeidung von Schäden und die Achtung der Menschenrechte Vorrang haben sollten. Sicherheit und Nichtdiskriminierung sollten den Prinzipien des maschinellen Lernens zugrunde liegen. Neben verantwortungsvoller KI sollten auch die Aufsicht, Kontrolle und Rechenschaftspflicht des Menschen als wesentlich angesehen werden.


Zusätzliche Konzepte von Fairness und „zum Wohle der Allgemeinheit“ legen nahe, dass wir wollen, dass KI eine utilitaristische Ideologie für die Entscheidungsfindung nutzt. Andererseits spielt die „Respektierung der Menschenrechte“ eine Rolle bei der moralischen Richtigkeit des Handelns selbst, also der Deontologie.


Transparenz wird natürlich auch von größter Bedeutung sein, um zu verstehen, wie Entscheidungen von AVs kalkuliert werden. Um den durch einen AV-Unfall verursachten oder verhinderten Schaden beurteilen zu können, müssen wir verstehen, wie und warum die zugrunde liegende KI-Technologie zu einer bestimmten Schlussfolgerung gelangt. Das Vertrauen der Öffentlichkeit in AVs erfordert ein Verständnis der Verantwortlichkeit und die Sicherstellung, dass die richtigen Rahmenbedingungen eingehalten werden.

Ethische automatisierte Entscheidungsfindung

Der Wissenschaftliche Dienst des Europäischen Parlaments ist sich der ethischen, rechtlichen und wirtschaftlichen Bedenken bewusst, die bei der Entwicklung und dem Einsatz automatisierter KI zur Entscheidungsfindung berücksichtigt werden müssen. Dazu gehört die Erforschung, wie ethische Grundsätze in den zugrunde liegenden Algorithmen entwickelt werden können und wie globale Richtlinien und Vorschriften an die exponentielle Geschwindigkeit der KI-Innovation angepasst werden können.


Im Hinblick auf die Menschenrechte wird auch die menschliche Handlungsfähigkeit priorisiert, wobei Forschungseinrichtungen das „Recht der Endnutzer, nicht einer ausschließlich auf automatisierter Verarbeitung beruhenden Entscheidung unterworfen zu werden“ schützen wollen. Auf der Technologieseite werden Cybersicherheitsstandards immer wichtiger, um sichere und zuverlässige Systeme zu gewährleisten. Ethische KI erfordert vertrauenswürdige Software.

Abschluss

Während es in Großbritannien derzeit noch keine breite Öffentlichkeit gibt, die AV-Fahrzeuge der Stufe 3+ auf Straßen nutzt, oder solche Fahrzeuge, die auf heimischen Märkten verfügbar sind, wollen große Player der Branche wie BMW, Tesla und Mercedes diese bis 2025 mithilfe von Technologien auf den Markt bringen wie Traffic Jam Pilot, um dies zu tun.


Wenn AVs die Ethik der Entscheidungsfindung richtig anwenden, sind große Vorteile zu erkennen. Einige Schätzungen gehen davon aus, dass die Verkehrsunfälle mit ihnen auf den Straßen um 90 % zurückgehen werden. Dennoch ist klar, dass wir noch keine quantifizierbaren ethischen und rechtlichen Rahmenbedingungen haben, die darlegen, wie Entscheidungen getroffen und Kompromisse priorisiert werden sollten, wenn es um die Technologien geht, die AVs zugrunde liegen.


AV-Spieler müssen daher näher darlegen, was „Schaden minimieren“ bedeutet und welche ethische Ideologie die Entscheidungsfindung bestimmen sollte. Wie wir beim Uber-Unfall im Jahr 2018 gesehen haben, müssen auch die Verantwortlichkeit und die Entscheidungsfreiheit geklärt werden. All dies, wie damit umgegangen wird und in welche Richtung wir voranschreiten, wird langfristige ethische Implikationen für die Gesellschaft haben.

Verweise