paint-brush
Sind wir moralisch verpflichtet, KI einzuführen?by@corhymel
1,136
1,136

Sind wir moralisch verpflichtet, KI einzuführen?

Cory Hymel8m2024/04/20
Read on Terminal Reader

Frank Chen, zweiter von links, im KI-Panel, in dem die Frage gestellt wurde. Credits: Gigster
featured image - Sind wir moralisch verpflichtet, KI einzuführen?
Cory Hymel HackerNoon profile picture
0-item

Vor fünf Jahren stellte Frank Chen eine Frage, die mich seitdem jeden Tag beschäftigt. Die Frage lautete: „Wenn selbstfahrende Autos 51 % sicherer sind, sind wir dann nicht moralisch verpflichtet, sie einzuführen?“. Ich habe diese Frage in den letzten fünf Jahren unzählige Male gestellt, und normalerweise führt eine spontane Reaktion zu einer interessanten Debatte. Was diese Frage so großartig macht, ist die Schneide – es ist nicht 99 % sicherer, es ist nicht 70 % sicherer, es ist nur 51 % sicherer.


Um es in den Kontext zu setzen. Die National Highway Safety Administration hat berichtet , dass es im Jahr 2022 schätzungsweise 42.795 Verkehrstote gab. 50 % von 42.795 sind 21.398 Menschen und 51 % sind 21.825 Menschen.


Das heißt, wenn selbstfahrende Autos 51 % sicherer sind, könnten durch ihren Einsatz jedes Jahr 427 Menschenleben gerettet werden. Das entspricht etwa 1,5 Boeing 777-Flugzeugen voller Passagiere.


Ist die Rettung von 427 Leben ein moralisches Argument für eine Adoption?


In den fünf Jahren, in denen ich diese Frage nun schon stelle, waren die Antworten nie einfach. Sie sind immer voller „Was wäre wenn“. Aber auch wenn die Antworten nicht klar sind, halte ich die Frage für unglaublich wichtig. Zum Teil, weil sie eine breitere – und ebenso wichtige – Debatte über die moralische Notwendigkeit der Einführung von KI in vielen Bereichen unseres Lebens und unserer Arbeit eröffnet. Denn schließlich kann es ethisch genauso problematisch sein, Technologien zu vermeiden, die Leben retten könnten, wie Technologien zu hastig einzuführen.


Der moralische Imperativ der Einführung künstlicher Intelligenz


Ich fand schon immer, dass die Debatte um autonome Fahrzeuge ein perfekter Mikrokosmos für den breiteren Diskurs über KI ist. Wenn wir über eine Technologie verfügen, die statistisch gesehen sicherer ist als von Menschen gesteuerte Fahrzeuge, ist die moralische Entscheidung dann nicht offensichtlich?


Bedenken Sie: Studien haben gezeigt, dass menschliche Fahrer eine höhere Unfallrate mit einem erheblichen Verletzungsrisiko hatten als selbstfahrende (KI-gesteuerte) Autos. Konkret verursachten menschliche Fahrer 0,24 Verletzungen pro Million Meilen (IPMM) und 0,01 Todesfälle pro Million Meilen (FPMM), während selbstfahrende Autos 0,06 IPMM und 0 FPMM verursachten.


Und vergessen Sie nicht: Diese Zahlen sind nicht bloß Statistiken. Sie repräsentieren echte Leben, die durch den Einsatz von KI-Technologie gerettet werden könnten.


Aber warum sollte man sich auf autonome Fahrzeuge beschränken? Das Potenzial der KI zur Verbesserung von Sicherheit, Effizienz und Genauigkeit erstreckt sich auf Bereiche wie Medizin, öffentliche Gesundheit, Lebensmittelsicherheit, Landwirtschaft, Cybersicherheit, Kriminalprävention und Militärwissenschaft. Wenn KI Krankheiten genauer diagnostizieren kann als menschliche Ärzte, Ernteausfälle vorhersagen kann, bevor sie die Nahrungsmittelversorgung zerstören, oder Cyberangriffe vereiteln kann, bevor sie unsere Daten angreifen, haben wir dann nicht eine moralische Verpflichtung, diese Technologien ebenfalls zu nutzen?


Natürlich sind das dramatische Beispiele, aber das Argument geht über Szenarien auf Leben und Tod hinaus. Die Fähigkeit der KI, unsere Lebensqualität im Alltag zu verbessern, ist ebenso überzeugend. Ob durch die Vereinfachung alltäglicher Aufgaben oder durch die Bereitstellung zugänglicherer und gerechterer Informationen und Dienste – KI kann der Plackerei ein Ende setzen und unsere Lebensqualität im Alltag verbessern. Der moralische Imperativ, KI einzuführen, besteht nicht nur darin, Schaden oder Tod zu verhindern; es geht auch darum, ob wir die Verpflichtung haben, zum menschlichen Wohlergehen beizutragen, wenn wir dazu in der Lage sind.

Das Dilemma der Wahl und der Sicherheit


Entscheiden wir uns also für von Menschen gesteuerte Fahrzeuge (oder von Menschen geleitete Prozesse), obwohl wir wissen, dass sie weniger sicher oder effizienter sind als ihre KI-Gegenstücke? Einfach, weil sie menschlicher sind?


Angesichts der Wahl zwischen von Menschen gesteuerten Systemen und KI-gestützten Alternativen bin ich der Meinung, dass die Entscheidung offensichtlich auf Sicherheit und Effizienz basieren sollte und nicht auf der Treue zu einer vagen Vorstellung davon, was „menschlich“ ist und was nicht.


Die Akzeptanz künstlicher Intelligenz bedeutet nicht, den Wert oder Beitrag des Menschen zu missachten. Vielmehr geht es darum, anzuerkennen, dass das Menschliche nicht von Natur aus überlegen ist – und, ehrlich gesagt, in bestimmten Kontexten oft sogar deutlich unterlegen ist.


Und jetzt bitte nicht die Mistgabeln rausholen, ich werde mich nicht dem Team Robot Overlord anschließen. Ich verstehe die Angst, die viele Menschen angesichts der Störungen empfinden, die KI bereits jetzt an ihren Arbeitsplätzen verursacht, und angesichts der gesellschaftlichen Veränderungen, die zweifellos auf uns zukommen. Ich frage mich nur, ob die Effizienz der KI und die Vorteile für die Lebensqualität auf lange Sicht die Auswirkungen dieser Störungen aufwiegen könnten.


Unsere Zurückhaltung gegenüber der Einführung künstlicher Intelligenz ist zum Teil auf kognitive Voreingenommenheit und Ängste zurückzuführen. Obwohl wir Menschen für ihre Anpassungsfähigkeit bekannt sind, mögen wir Veränderungen nicht besonders.


Kognitive Verzerrungen spielen eine wesentliche Rolle bei unserer Zurückhaltung gegenüber KI. Kognitive Verzerrungen sind psychologische Muster, die ein Überbleibsel aus unserer frühen Zeit als Homo Sapiens sind. Sie sind die Gewohnheiten, die unser Gehirn entwickelt – kognitive Abkürzungen, die auf der Flucht vor Raubtieren nützlich sein können, aber definitiv unsere moderne Wahrnehmung und unser Urteilsvermögen verzerren.


In diesem Fall ist das Erkennen und Ansprechen dieser Vorurteile von entscheidender Bedeutung, um einen rationaleren, ethischeren Ansatz bei der Einführung von KI zu erreichen. Hier sind einige, von denen ich denke, dass sie eine Rolle spielen und unser Misstrauen, Vertrauen oder unsere Akzeptanz gegenüber KI-Technologien beeinflussen könnten.

  • Anthropomorphismus-Voreingenommenheit: Menschen neigen dazu, KI oder Robotern menschliche Eigenschaften zuzuschreiben, was ihr Vertrauen und ihre Erwartungen beeinflusst. Dies kann zu unrealistischen Annahmen über die Fähigkeiten von KI-Systemen oder zur Unterstellung böser Absichten führen.

  • Verfügbarkeitsheuristik: Diese Tendenz führt dazu, dass Personen die Wahrscheinlichkeit von Ereignissen überschätzen, die mit erinnerungswürdigen oder lebhaften Vorfällen verbunden sind. Sensationsberichte in den Medien über Misserfolge oder Erfolge von KI können übertrieben werden und die Wahrnehmung der Zuverlässigkeit und Sicherheit von KI überproportional beeinflussen.

  • Bestätigungsfehler: Was machen alle anderen auch? Menschen suchen oder interpretieren Informationen möglicherweise auf eine Weise, die ihre bereits bestehenden Überzeugungen oder Hypothesen über KI bestätigt. Dieser Fehler kann die objektive Bewertung von KI-Technologien und ihren potenziellen Vorteilen oder Risiken behindern.

  • FOMO: Menschen wollen nützliche Technologien nicht verpassen, verstehen aber möglicherweise nicht die Auswirkungen. Diese Voreingenommenheit kann kritische Bewertungen überschatten und zu einer vorzeitigen Übernahme führen. Diese Voreingenommenheit ist mit dem Mitläufereffekt verwandt (d. h. die Tendenz, Dinge zu tun oder zu glauben, weil es alle anderen tun – oder Influencer tun es. Menschen vertrauen oder misstrauen KI-Technologien einfach deshalb, weil dies die allgemeine Meinung zu sein scheint.


  • Status-Quo-Verzerrung: Menschen möchten lieber den aktuellen Zustand beibehalten, was zu Widerstand gegen die Einführung neuer Technologien wie KI führt, ungeachtet möglicher Vorteile oder erwiesener Überlegenheit. Diese Verzerrung kann Innovationen und die Einführung potenziell lebensverbessernder Technologien verlangsamen.


  • Verlustaversion: Diese Tendenz lässt den Schmerz, etwas zu verlieren, stärker empfinden als die Freude, etwas von gleichem Wert zu gewinnen. Für die KI bedeutet dies, dass die Angst vor Arbeitsplatzverlust oder Kontrollverlust die Vorteile von Sicherheit/Effizienz/Komfort überschattet.

  • Overconfidence Bias: Überschätzung der eigenen Fähigkeit, etwas zu kontrollieren oder zu verstehen. Bei KI bedeutet dies, die mit KI verbundenen Risiken zu überschätzen oder zu unterschätzen.


  • Algorithmenaversion/Vertrauen: Zahlen sind beängstigend! Menschen neigen dazu, Algorithmen gegenüber voreingenommen zu sein und glauben, dass menschliche Entscheidungen überlegen sind, selbst wenn Beweise das Gegenteil nahelegen. Andererseits vertrauen manche möglicherweise auch bedingungslos auf KI-Entscheidungen und ignorieren das Fehler- oder Verzerrungspotenzial von KI-Systemen.


Ökonomische Rationalität


Interessant, oder? Aber die Wahrheit ist, dass das alles nur theoretischer Natur ist. Vielleicht werden wir diese Entscheidung am Ende gar nicht treffen. Die Unternehmen treffen sie bereits.

Eine Menge Unternehmen treiben die Integration von KI voran – vor allem, weil der ROI oft mehr zählt als ethische Debatten. Amazon als Paradebeispiel, mit seiner deutlichen Verlagerung hin zur Automatisierung. Die Effizienz- und wirtschaftlichen Vorteile sind greifbar und messbar, und angesichts des baren Geldes erscheinen moralische und soziale Kritikpunkte plötzlich eher akademisch.


Dennoch geht es hier nicht nur um steinherzigen Kapitalismus; es geht um Überleben und Anpassung. Unternehmen stehen jeden Tag vor der Herausforderung, die Einführung neuer Technologien mit ethischen und ESG-Verantwortungen in Einklang zu bringen. Die Auswirkungen der KI auf Beschäftigung und menschliches Wohlbefinden dürfen nicht nebensächlich sein. Für Tausende hängen finanzielle Stabilität und berufliches Wohlergehen von diesen Entscheidungen ab. Viele Unternehmen haben damit zu kämpfen.


Und hier wird die Frage nach dem moralischen Imperativ differenzierter. Wenn KI Abläufe rationalisieren, Kosten senken und sogar neue Möglichkeiten schaffen kann, sind wir dann nicht auch moralisch dafür verantwortlich, diese Technologien zu erforschen?


Der Trick wird darin bestehen, diesen ethischen Kompass griffbereit zu halten und sicherzustellen, dass wir uns zwar die Effizienz der KI zunutze machen, uns aber gleichzeitig vor ihrem Potenzial schützen, Existenzgrundlagen auf unfaire Weise zu zerstören.

Wir befinden uns in einer Übergangsphase

In jedem Fall müssen wir aufpassen, wo wir stehen. Wir stehen am Abgrund einer neuen Ära und ein kräftiger Stoß könnte uns in den freien Fall stürzen. KI ist keine futuristische Fantasie mehr; sie ist fest in unser tägliches Leben und unsere Arbeit eingebettet. Das ist aufregend – und höllisch beängstigend.


Eine der größten Herausforderungen, vor denen wir stehen, ist die Zugänglichkeit oder Technologielücke. KI hat das Potenzial, Technologie zu demokratisieren und leistungsstarke Tools einem breiteren Publikum zugänglich zu machen. Derzeit wird das Potenzial der KI jedoch vor allem von denjenigen erkannt, die bereits über einen gewissen Zugang verfügen. Es besteht also auch das Potenzial, dass KI bestehende Ungleichheiten eher verschärft als lindert.


Es ist eine Phase der Anpassung, und es bedarf Geduld, Aufklärung und proaktiver Maßnahmen, um sicherzustellen, dass die Vorteile der KI weit verbreitet sind. Wir haben die Möglichkeit, gleiche Bedingungen zu schaffen, damit das Potenzial der KI für alle freigesetzt werden kann, nicht nur für einige wenige Privilegierte.



Das Rätsel der Zusammenarbeit


Okay, es ist also ein Paradoxon: Damit KI optimal neben Menschen funktionieren kann, muss sie uns bei bestimmten Aufgaben überlegen sein. Aber genau diese Überlegenheit droht, menschliche Rollen zu verdrängen und so Widerstand und Angst unter uns Normalsterblichen zu schüren.


Dieses Paradoxon stellt für die KI ein schwieriges „Push-Pull“ dar; deshalb erleben wir eine so hitzige Debatte über Moral. Ich glaube, die Lösung könnte eine Reihe neuer Designphilosophien und Technologien sein, die darauf abzielen, die Kluft zwischen KI und menschlicher Zusammenarbeit auf ethische Weise zu überbrücken. Ich werde sie unten auflisten. Es lohnt sich, ChatGPT danach zu fragen:


  • Human-Centric AI Design (HCAI): stellt sicher, dass KI-Systeme mit menschlichen Bedürfnissen und Werten im Mittelpunkt entwickelt werden.

  • Erklärbare KI (XAI): entmystifiziert KI-Entscheidungen und macht sie für Menschen verständlich und transparent.

  • Ethische KI-Rahmenwerke: Leiten Sie die Entwicklung und Bereitstellung von KI-Systemen auf eine Weise, die Menschenrechte und Werte respektiert.

  • Adaptive/reaktive KI: lernt aus menschlichem Feedback und passt sich daran an, wodurch eine synergetische Beziehung gewährleistet wird.

  • Partizipatives Design: Bezieht Endbenutzer in den KI-Entwicklungsprozess ein und stellt sicher, dass ihre Bedürfnisse und Bedenken berücksichtigt werden.

  • Erweiterte Intelligenz: betont die Rolle der KI bei der Erweiterung menschlicher Fähigkeiten, anstatt sie zu ersetzen.

  • Vertrauenswürdige KI: schafft Vertrauen in KI-Systeme durch Zuverlässigkeit, Sicherheit und ethische Zusicherungen.

Selbstfahrende Autos oder keine selbstfahrenden Autos?


Abschließend möchte ich Stellung beziehen. Ich denke, dass die Einführung von KI ein moralisches Gebot ist. Meiner Ansicht nach ist das Potenzial, Leben zu retten, unsere Lebensqualität zu verbessern und sogar langjährige Ungleichheiten zu beseitigen, zu groß, um es zu ignorieren. Das bedeutet jedoch nicht, dass wir uns kopfüber und ohne nachzudenken in die Sache stürzen sollten. Meiner Meinung nach müssen wir uns der KI mit einer Mischung aus Enthusiasmus und Vorsicht nähern – wir müssen weiterhin gespannt sein, ihre Möglichkeiten zu erkunden, uns aber der ethischen, sozialen und wirtschaftlichen Auswirkungen bewusst sein.


Um das Potenzial der KI verantwortungsvoll auszuschöpfen, sind sorgfältige Überlegungen, solide ethische Rahmenbedingungen und eine strenge Steuerung erforderlich.


Ich bin immer noch offen für eine Diskussion zu diesem Thema. Also stelle ich Ihnen die Frage. Antworten Sie hier oder auf meinem LinkedIn-Thread und sagen Sie mir, warum ich falsch – oder richtig – liege. Ich freue mich über Ihre Gedanken und Kommentare zu diesem komplexen Thema.


Sind wir bereit, KI mit der gebotenen moralischen Ernsthaftigkeit anzunehmen?

Sind Sie bereit für Ihren nächsten Roadtrip in einem selbstfahrenden Auto?