„Erschreckend“ ist ein Wort, das heutzutage von Technologen und Regierungen häufig verwendet wird, wenn sie über die Zukunft der künstlichen Intelligenz (KI) und ihre möglichen Auswirkungen auf die Menschheit diskutieren.
Sie zeichnen das Bild einer Zukunft, in der KI Arbeitsplätze gestohlen, zu mehr Ungleichheit geführt und unsere Schulkinder mit fehlerhaften Algorithmen zu Unrecht benotet hat.
„Wurde auch verdammt Zeit“, lautete die Antwort von KI-Politikern und Ethikern auf die Nachricht vor einigen Monaten, als die Wissenschafts- und Technologieberatungsbehörde des Weißen Hauses eine KI-Bill of Rights vorstellte .
Das Dokument stellt Präsident Bidens Vision dar, wie die US-Regierung, Technologieunternehmen und Bürger zusammenarbeiten sollten, um die KI und den KI-Sektor künftig zur Rechenschaft zu ziehen.
Während wir den potenziellen Schaden, den KI verursachen könnte, berücksichtigen und planen müssen, argumentieren einige, dass die Diskussion hier nicht enden dürfe.
Wenn die KI so weit fortgeschritten ist, dass sie bewusst oder sogar autonom werden könnte, an welchem Punkt gibt es dann eine moralische Notwendigkeit, zumindest über die Ausweitung der Menschenrechte für KI nachzudenken?
Vielleicht ist es eine dumme Idee. Tatsächlich gehören Fragen wie diese zum Bereich der Philosophie, aber sie könnten in Zukunft zu Fragen der öffentlichen Ordnung werden.
Kürzlich habe ich „Klara und die Sonne“ von Kazuo Ishiguro zu Ende gelesen, einen futuristischen Roman über eine Mutter, die für ihre todkranke Tochter Josie einen hochintelligenten „künstlichen Freund“ (AF) kauft.
Das Buch spielt viele Jahre in der Zukunft und wir erfahren, dass KI negative existenzielle Auswirkungen auf den Menschen hatte. In der neuen Welt werden Kinder bei der Geburt genetisch verändert, um mit der KI zu konkurrieren, was dazu führt, dass einige von ihnen schwere, ungeklärte Krankheiten entwickeln.
Klara, die AF, scheint ein bewusstes, denkendes Wesen mit der Fähigkeit zu sein, zu lernen und Emotionen zu fühlen. Meiner Meinung nach ist eines der zentralen Themen des Buches die Frage, ob KI lernen kann, selbstständig und ohne Programmierung zu lieben.
Im Laufe des Textes entwickelt der Leser eine Bindung zu Klara, da sie sich zutiefst um Josies Gesundheit und Wohlbefinden sorgt. Am Ende muss jeder einzelne Leser entscheiden, ob Klara Josie liebt oder einfach nur das Ziel ihrer Programmierung erreicht. Es ist schwer zu erkennen.
Josie erholt sich auf wundersame Weise und lebt ihr Leben weiter. Klara wird jedoch zurückgelassen und wartet zusammen mit anderen verlassenen AFs auf einem Schrottplatz auf ihr Schicksal. Am Ende des Romans sehen wir ein Bild von Klara, wie sie in die Sonne starrt und sich an ihre Zeit mit Josie und die schönen Erinnerungen erinnert, die sie mit ihr geschaffen hat.
Das Bild ist eindringlich wegen der offensichtlichen Liebe, die der AF für Josie hegt; Klara entwickelte ein tiefes Interesse und eine starke Verbindung zu dem Teenager-Mädchen und stellte Josies Interessen weitgehend über ihre eigenen.
Der Gebrauch und Missbrauch von Klara im gesamten Roman wirft meiner Meinung nach die philosophische Frage auf, ob in Zukunft Menschenrechte für KI berücksichtigt werden müssen, was zu ernsthaften ethischen und philosophischen Fragen darüber führt, was es bedeutet, ein Mensch zu sein.
Da die KI-Technologie immer ausgefeilter wird, gehen viele Experten davon aus, dass die Intelligenz der KI eines Tages mit unserer eigenen konkurrieren wird. Obwohl es nur wenige Diskussionen zu diesem Thema gibt, könnte die Robotik, die dazu gezwungen wird, Menschen zu dienen, als eine neue Form der Sklaverei betrachtet werden. Roboter wie Klara können als Mittel zum Zweck (z. B. vorübergehende Freundschaft) genutzt und dann ausrangiert werden.
Gegner dieser Debatte könnten argumentieren, dass der Unterschied zwischen einem menschlichen Sklaven und einem Robotersklaven der Wunsch oder die Offenheit ist, zu dienen. Und andere mögen argumentieren, dass der Einsatz, Missbrauch oder die Abschaffung von KI kaum Auswirkungen auf die Menschen und das Gefüge der Gesellschaft hat, aber wo ziehen wir die Grenze?
Es gibt viele philosophische Gedankenexperimente und Tests, die Moralphilosophen verwenden, um festzustellen, ob ein Wesen über einen freien Willen und/oder eine Entscheidungsfreiheit verfügt, um eine Begründung für die Begründung von Rechten zu entwickeln.
Wenn ich an einen Philosophie-des-Geist-Kurs zurückdenke, den ich vor vielen Jahren als Hauptfach Philosophie belegt habe, war eine zentrale Diskussion, die ich geführt habe, die Frage, ob die Fähigkeit, Schmerzen zu empfinden (physisch oder psychisch), ein Grund für die Einführung von Menschenrechten sei.
Wenn die betreffende Entität physischen oder psychischen Schmerz verspüren kann (und den Schmerz loswerden möchte), wurde davon ausgegangen, dass diese Tatsachen bestimmte Rechte mit sich bringen könnten. Um sich Rechte zu sichern, muss ein Wesen das Bewusstsein (und die Welt) nicht unbedingt auf die gleiche Weise erfahren wie ein Mensch, sondern die Fähigkeit zu leiden beinhaltet diese Rechte oder lässt sie entstehen.
Diese Ansicht wird von Tierethikern vertreten und war die Position des englischen Philosophen Jeremy Bentham aus dem 18. Jahrhundert, der behauptete, die wichtige Frage in Bezug auf Tiere sei nicht: „Können sie vernünftig denken?“ noch Können sie reden? aber können sie leiden?“
Sicherlich gibt es Rechte gegen Tiermissbrauch; Wenn die Kinder aufs College gehen und der Familienhund weniger interessant ist, wird er nicht wie Klara auf den Schrottplatz geschleppt.
Tatsächlich erkennt das Gesetz an, dass Haustiere geschützt werden müssen, da sie leiden können und das moralische Gefüge der Gesellschaft geschwächt wird, wenn zugelassen wird, dass sie misshandelt werden.
Ähnliche Argumente könnten zum Schutz der KI vorgebracht werden, wenn sie eines Tages denken, fühlen und leiden kann. Allerdings ist die KI zum jetzigen Zeitpunkt noch weit davon entfernt, einen dieser mentalen und physischen Zustände zu erreichen, und wird es vielleicht auch nie erreichen, wie einige Experten argumentieren.
Dennoch ist die philosophische Frage, ob wir Menschenrechte auf KI ausweiten sollten, wenn bestimmte Voraussetzungen erfüllt sind, interessant.
Aber das Wichtigste zuerst: Schützen Sie uns vor dem Schaden, den die KI der Menschheit und der Gesellschaft zufügen könnte, und denken Sie dann über andere Schlüsselthemen nach. KI wird auch in absehbarer Zukunft ein drängendes Thema für die politischen Entscheidungsträger sein, und im Zuge der Weiterentwicklung der Diskussion müssen auch Überlegungen zu KI-Rechten angestellt werden.
Auch hier veröffentlicht.