Viele berühmte Persönlichkeiten der Technologiephilosophie haben versucht, das Wesen der Technologie zu verstehen und es mit der Gesellschaft und der menschlichen Erfahrung zu verknüpfen. In der ersten Hälfte des 20. Jahrhunderts zeigten die Ergebnisse ihrer Analysen vor allem eine Divergenz zwischen Technik und menschlichem Leben.
Technologie galt als autonome Kraft, die die Grundbestandteile der Menschheit zerstörte. Indem Philosophen das Konzept der Technologie auf historische und transzendentale Annahmen reduzierten, schienen sie von den Auswirkungen spezifischer Ereignisse zu abstrahieren.
In den achtziger Jahren entwickelte sich eine eher empirische Sicht auf Technologie, basierend auf den Ideen amerikanischer Philosophen, die die Auswirkungen spezifischer Technologien in ihre Ansichten integrierten (Achterhuis, HJ, „Van Stoommachine tot cyborg; denken over techniek in de nieuwe wereld“, 1997). ) . Die Interdependenz von Technologie und Gesellschaft ist das Hauptthema dieser Studie. Diese „empirische Wende“ ermöglichte es, die Vielseitigkeit der Technologie und die vielen Rollen zu erklären, die sie in der Gesellschaft spielen kann. Dieser Ansatz wurde unter Technikphilosophen beispielsweise an der Universität Twente weiterentwickelt.
Künstliche Intelligenz wurde 1956 als Forschungsgebiet etabliert. Sie befasst sich mit intelligentem Verhalten in Rechenmaschinen. Die Forschungsziele lassen sich in vier Kategorien einteilen:
Nach vielen Jahren des Optimismus hinsichtlich der Fähigkeit, diese Aufgaben zu erfüllen, stand das Fachgebiet vor Herausforderungen bei der Darstellung von Intelligenz, die in Anwendungen nützlich sein könnte. Dazu gehörten ein Mangel an Grundwissen, die Komplexität der Berechnung und Einschränkungen bei den Wissensrepräsentationsstrukturen (Russell, S & Norvig, „Artificial Intelligence: A Modern Approach“, Peter, 2009) . Die Herausforderungen kamen jedoch nicht nur von der Design-Community. Auch Philosophen, die sich seit Platon mit dem Verstand und dem Denken beschäftigt hatten, begannen sich zu beschweren. Mithilfe sowohl mathematischer Einwände (basierend auf Turing und Gödel) als auch eher philosophischer Argumente über die Natur der menschlichen Intelligenz versuchten sie, die internen Einschränkungen des KI-Projekts aufzuzeigen. Der berühmteste von ihnen war Hubert Dreyfus.
Dreyfus betrachtete die Ziele und Methoden der künstlichen Intelligenz als eine klare rationalistische Sichtweise der Intelligenz. Dies wurde im Laufe der Geschichte von vielen rationalistischen Philosophen verteidigt, aber Dreyfus selbst war eher ein Befürworter der antirationalistischen Philosophie des 20. Jahrhunderts, wie aus den Werken von Heidegger, Merleau-Ponty und Wittgenstein hervorgeht. Laut Dreyfus ist die grundlegendste Art der Erkenntnis intuitiv und nicht rational. Durch das Sammeln von Erfahrungen in einem bestimmten Bereich wird eine Person erst beim ersten Studium der Argumentation an formalisierte Regeln gebunden. Danach wird Intelligenz eher durch empirische Regeln und intuitive Entscheidungen repräsentiert.
Der rationale Ansatz der KI lässt sich deutlich in den Grundlagen der sogenannten symbolischen KI nachvollziehen. Intelligente Prozesse werden als eine Form der Informationsverarbeitung betrachtet und die Darstellung dieser Informationen ist symbolisch. Intelligenz beschränkt sich also mehr oder weniger auf die Manipulation von Symbolen. Dreyfus analysierte dies als eine Kombination aus drei Grundannahmen:
Dreyfus kritisierte nicht nur diese Annahmen, sondern definierte auch einige Konzepte, die seiner Meinung nach für die Intelligenz wesentlich waren. Laut Dreyfus ist Intelligenz verkörpert und lokalisiert. Die Verkörperung ist schwer zu erklären, da unklar ist, ob Intelligenz dadurch einen Körper erfordert oder ob sie sich nur mit Hilfe eines Körpers entwickeln kann. Aber es ist zumindest klar, dass Dreyfus Intelligenz als abhängig von der Situation ansieht, in der sich der intellektuelle Akteur befindet und die Elemente in einer sinnvollen Beziehung zu ihrem Kontext stehen. Dies verhindert, dass die Realität auf formalisierte Einheiten reduziert wird. Der Standpunkt von Dreyfus macht den Betrieb von Maschinen, die Symbole über einen klar definierten formalen Bereich hinaus manipulieren, unmöglich.
Dreyfus steht dem konnektionistischen Ansatz zur künstlichen Intelligenz positiver gegenüber. Bei diesem Ansatz entsteht intelligentes Verhalten aus modellierten Strukturen, die Neuronen und ihren Verbindungen im menschlichen Gehirn ähneln. Er bezweifelt jedoch, dass die Komplexität des menschlichen Gehirns in solchen Maschinen jemals möglich ist.
Damit löste Dreyfus eine Diskussion über die Machbarkeit von KI-Zielen aus. Seine Arbeit erregte große Aufmerksamkeit und löste heftige Debatten aus. Es gelang ihm sogar, einige Forscher dazu zu bringen, ihre Sichtweise zu ändern und mit der Implementierung von Systemen zu beginnen, die besser mit seiner Vision vereinbar wären. Dreyfus demonstrierte die Annahmen der symbolischen KI und stellte klar, dass es keineswegs offensichtlich ist, dass diese Annahmen zu echten intelligenten Maschinen führen werden ( Mind Over Machine: The Power of Human Intuition and Expertise in the Era of the Computer ) .
Es sollten jedoch zwei Anmerkungen gemacht werden. Erstens stützte Dreyfus seine Kritik auf streng symbolische KI-Ansätze. In den letzten Jahrzehnten gab es mehrere Versuche, hybridere intelligente Systeme zu schaffen und nicht-regelbasierte Methoden in der symbolischen KI zu implementieren. Diese Systeme vertreten eine andere Sichtweise der Intelligenz, die durch die Analyse von Dreyfus nicht vollständig erklärt werden kann. Zweitens scheint Dreyfus‘ Kritik auf einer skeptischen Sicht auf künstliche Intelligenz zu beruhen, teils aufgrund seines eigenen philosophischen Hintergrunds, teils weil die Grundlagen zu einer Zeit gelegt wurden, als die Begeisterung nahezu unbegrenzt war.
Freier Wille ist ein seltsames Konzept. Die Philosophie kann den menschlichen Geist auf viele Arten diskutieren, aber wenn es um die Frage geht, ob wir in unseren Entscheidungen frei sind, wird die Diskussion gefährlich. Wir sind so vertraut damit, in Begriffen des Willens, der Entscheidungen und des Handelns zu denken, dass wir uns größtenteils weigern, auch nur die Möglichkeit in Betracht zu ziehen, dass wir in unseren Entscheidungen nicht frei sind. Aber es gibt noch etwas anderes. Was wäre, wenn ich in einer solchen Diskussion sagen würde, dass es überhaupt keinen freien Willen des Menschen gibt? Wenn es falsch ist, liege ich falsch, und wenn es wahr ist, dann verliert die ganze Bemerkung ihre Bedeutung, weil ich nichts anderes tun konnte, als das zu sagen. Die Leugnung des freien Willens ist ein pragmatischer Widerspruch. Sie können den freien Willen einer Person nicht leugnen, ohne diese Leugnung bedeutungslos zu machen.
Dennoch scheint die Frage des freien Willens relevant zu sein, da wissenschaftliche Theorien behaupten können, dass alles, was geschieht, den Naturgesetzen folgt. Wir müssen den Menschen also entweder besondere Eigenschaften zugestehen oder die Determiniertheit der Naturgesetze leugnen, wenn wir keine determinierten organischen Maschinen sein wollen. Die erste Option hängt mit vielen philosophischen Theorien zusammen, vor allem aber mit der Theorie von Descartes, der die Welt in zwei Substanzen (Geist und Materie) unterteilt, die im Menschen miteinander verbunden sind. Die zweite Option eröffnet eine ganzheitlichere Vision, die die neuesten Entwicklungen der Physik (Relativität, Quantenmechanik) nutzt, um zu zeigen, dass unser freier Wille auf der unvorhersehbaren Dynamik der Natur basieren kann.
Die dualistische Sichtweise von Descartes und anderen leugnet die Existenz eines freien Willens für andere Dinge als den Menschen. Daher ist die Diskussion über freien Willen und intelligente Maschinen nicht besonders interessant. Andererseits ist die ganzheitliche Sichtweise für eine solche Diskussion besser geeignet, aber es ist schwierig, zu anderen Schlussfolgerungen als den physikalischen Annahmen zu kommen, die erforderlich sind, um die Eigenschaft des freien Willens Menschen oder Computern zuzuordnen. Das mag in einer rein philosophischen Diskussion angebracht sein, hat aber mit Informatik wenig zu tun.
Es besteht auch die Möglichkeit anzuerkennen, dass die menschliche Natur von Natur aus widersprüchlich ist, da sowohl deterministische als auch willensfreie Ansichten gerechtfertigt und notwendig sind. Dieser dialektische Ansatz ermöglicht es uns, über den freien Willen des Menschen nachzudenken, ohne uns um körperliche Voraussetzungen zu kümmern. Der freie Wille wird zu einer transzendenten Voraussetzung des Menschseins. Die transzendentale Sichtweise des freien Willens in diesem Ansatz lässt jedoch keine Diskussion des freien Willens in bestimmten Artefakten wie intelligenten Maschinen zu, da es unmöglich ist, transzendentale Voraussetzungen zu modellieren oder zu entwerfen. Im weiteren Verlauf dieses Abschnitts werde ich das komplexe Konzept des freien Willens in ein Konzept umwandeln, das zur Analyse intelligenter Maschinen verwendet werden kann. Dieses Konzept sollte mit einem empirischen Ansatz der Technikphilosophie vereinbar sein. Daher sollten wir es vermeiden, über das Konzept des freien Willens im Hinblick auf physische oder transzendente Voraussetzungen zu sprechen, sondern uns vielmehr auf die Rolle konzentrieren, die dieses Konzept in der Gesellschaft spielt.
Den Hinweis auf meinen Ansatz in diesem Artikel finden Sie im einleitenden Absatz. Meiner Ansicht nach gibt es in der Debatte über den freien Willen zwei grundlegend unterschiedliche Ansätze für die Forschung auf diesem Gebiet. Der erste Schwerpunkt liegt auf tiefgreifenden philosophischen Fragen zur Natur des freien Willens und der Fähigkeit des Menschen, den „Anforderungen“ der Natur zu entgehen. Ich nenne es den physischen Ansatz. In dem Artikel über intelligente Maschinen führt dies zu einer philosophischen Debatte, die sich auf die Natur des Menschen und nicht so sehr auf die Natur von Computern konzentriert, weil wir in eine Situation geraten, in der wir sowieso unseren eigenen Willen verteidigen und etwas dazu sagen müssen Computer, weil wir einfach einen Artikel darüber schreiben wollten. Mit anderen Worten: Die Diskussion wird zu einem Vergleich zwischen Mensch und Computer, in dem sich weder Mensch noch Computer wiedererkennen können.
Ein anderer Ansatz, der im ersten Absatz dieses Abschnitts subtil vorgeschlagen wird, konzentriert sich auf die Unmöglichkeit, unseren eigenen freien Willen zu leugnen. Wie bereits erwähnt, macht diese Leugnung keinen Sinn. Aber es entwertet nicht nur sich selbst, es zerstört auch die Grundlagen der Verantwortung insgesamt. Das bedeutet, dass wir Menschen nicht für das loben oder beschuldigen können, was sie sagen oder tun. Deshalb müssen wir die Grundsätze der Gerichtsbarkeit, der Arbeit, der Freundschaft, der Liebe und alles, worauf wir unsere Gesellschaft aufgebaut haben, überdenken. Alle diese sozialen Probleme erfordern eine Wahl, und wann immer es um Entscheidungen geht, ist das Konzept des freien Willens von wesentlicher Bedeutung. Das Wesentliche dabei ist, dass der freie Wille eine wichtige Voraussetzung für unsere Gesellschaft ist, unabhängig davon, ob er physisch gerechtfertigt ist. Ich nenne das den sozialen Ansatz.
Es ist eine schwierige Frage, ob die Annahme des freien Willens nur für unsere Gesellschaft oder für jede menschliche Gesellschaft notwendig ist. Ich werde diese Frage trotzdem untersuchen, da sie möglicherweise eine eher philosophische Rechtfertigung für die Bedeutung des freien Willens darstellt, als nur auf die Struktur unserer eigenen Gesellschaft hinzuweisen. Es scheint unmöglich zu sein, eine Antwort zu geben, ohne die menschliche Natur zu überdenken und damit wieder einen physischen Ansatz für den freien Willen einzuführen. Aber wenn wir feststellen, dass Interaktion den Kern der menschlichen Zivilisation darstellt, entsteht ganz natürlich die Notwendigkeit des Konzepts des freien Willens. Wir können nicht mit Menschen interagieren, ohne davon auszugehen, dass sie die Freiheit haben, den Verlauf der Interaktion zu beeinflussen, da jede menschliche Interaktion impliziert, dass wir das Ergebnis nicht im Voraus kennen. Interaktionen sind also durch Wahl und damit durch das Konzept des freien Willens gekennzeichnet. Wenn Interaktionen in jeder Gesellschaft von grundlegender Bedeutung sind, müssen wir auch feststellen, dass der freie Wille in keiner Gesellschaft geleugnet werden kann.
Symbolische künstliche Intelligenz (KI) ist ein Teilgebiet der KI, das sich auf die Verarbeitung und Manipulation von Symbolen oder Konzepten und nicht auf numerische Daten konzentriert. Das Ziel der symbolischen künstlichen Intelligenz besteht darin, intelligente Systeme zu schaffen, die wie Menschen denken und denken können, indem sie Wissen und Argumentation auf der Grundlage logischer Regeln darstellen und manipulieren.
Algorithmen für symbolische künstliche Intelligenz verarbeiten Symbole, die Objekte oder Konzepte in der Welt und deren Verbindungen darstellen. Der Hauptansatz der symbolischen künstlichen Intelligenz ist die Verwendung logischer Programmierung, bei der Regeln und Axiome verwendet werden, um Schlussfolgerungen zu ziehen. Wir verfügen beispielsweise über ein symbolisches künstliches Intelligenzsystem, das Krankheiten anhand der von einem Patienten gemeldeten Symptome diagnostizieren soll. Das System verfügt über eine Reihe von Regeln und Axiomen, anhand derer es Rückschlüsse auf den Zustand des Patienten zieht.
Wenn ein Patient beispielsweise Fieber meldet, kann das System die folgende Regel anwenden: WENN der Patient Fieber hat UND er/sie hustet UND er/sie Schwierigkeiten beim Atmen hat, DANN kann der Patient eine Lungenentzündung haben.
Dann prüft das System, ob der Patient auch Husten und Atembeschwerden hat und schließt daraus, dass der Patient möglicherweise an einer Lungenentzündung leidet.
Dieser Ansatz ist sehr einfach zu interpretieren, da wir den Argumentationsprozess leicht auf die angewandten logischen Regeln zurückführen können. Darüber hinaus ist es einfach, die Regeln des Systems zu ändern und zu aktualisieren, sobald neue Informationen verfügbar sind.
Symbolische KI verwendet formale Sprachen wie Logik, um Wissen darzustellen. Dieses Wissen wird durch Argumentationsmechanismen verarbeitet, die Algorithmen zur Manipulation von Symbolen verwenden. Dies ermöglicht die Schaffung von Expertensystemen und Entscheidungsunterstützungssystemen, die auf der Grundlage vordefinierter Regeln und Kenntnisse Schlussfolgerungen ziehen können.
Symbolische Künstliche Intelligenz unterscheidet sich von anderen KI-Methoden wie maschinellem und tiefem Lernen dadurch, dass sie keine großen Mengen an Trainingsdaten erfordert. Stattdessen basiert die symbolische KI auf der Darstellung und Argumentation von Wissen, wodurch sie sich besser für Bereiche eignet, in denen Wissen klar definiert ist und in logischen Regeln dargestellt werden kann.
Andererseits erfordert maschinelles Lernen große Datensätze, um Muster zu lernen und Vorhersagen zu treffen. Deep Learning nutzt neuronale Netze, um Funktionen direkt aus Daten zu lernen, wodurch es für Bereiche mit komplexen und unstrukturierten Daten geeignet ist.
Es hängt vom Fachgebiet und den verfügbaren Daten ab, wann die einzelnen Techniken angewendet werden müssen. Symbolische künstliche Intelligenz eignet sich für Bereiche mit klar definiertem und strukturiertem Wissen, während maschinelles und tiefes Lernen für Bereiche mit großen Datenmengen und komplexen Mustern geeignet ist.
Der konnektionistische Ansatz der Philosophie der künstlichen Intelligenz basiert auf den Prinzipien neuronaler Netze und ihrer Ähnlichkeit mit dem menschlichen Gehirn. Dieser Ansatz soll das Verhalten miteinander verbundener Neuronen in biologischen Systemen nachahmen, um Informationen zu verarbeiten und aus Daten zu lernen. Hier sind einige Schlüsselaspekte des verbindungsorientierten Ansatzes.
Der konnektionistische Ansatz beinhaltet die Schaffung künstlicher neuronaler Netzwerke, die aus miteinander verbundenen Knoten bestehen und oft als künstliche Neuronen oder Knoten bezeichnet werden. Diese künstlichen Neuronen sind dafür konzipiert, Eingabedaten zu empfangen, Berechnungen durchzuführen und Signale an andere Neuronen im Netzwerk zu übertragen.
Der konnektionistische Ansatz geht davon aus, dass künstliche Neuronen in einem Netzwerk zusammenarbeiten, um Informationen zu verarbeiten. Jedes Neuron empfängt Eingangssignale, führt darauf basierende Berechnungen durch und überträgt Ausgangssignale an andere Neuronen. Die Leistung des Netzwerks wird durch die kollektive Aktivität seiner Neuronen bestimmt, während Informationen über die Verbindungen zwischen ihnen fließen. Ein wichtiger Aspekt des konnektionistischen Ansatzes ist die Fähigkeit künstlicher neuronaler Netze, aus Daten zu lernen. Während des Lernprozesses passt das Netzwerk die Stärke der Verbindungen (Gewichte) zwischen Neuronen basierend auf den Eingabedaten und dem gewünschten Ergebnis an. Basierend auf dem iterativen Vergleich der vorhergesagten Ausgabe des Netzwerks mit dem erwarteten Ergebnis werden die Gewichte aktualisiert, um die Unterschiede zu minimieren und die Netzwerkleistung zu verbessern.
Konnektionistische Systeme heben die Parallelverarbeitung hervor, bei der mehrere Berechnungen gleichzeitig im Netzwerk durchgeführt werden. Dies gewährleistet eine effiziente und zuverlässige Informationsverarbeitung. Darüber hinaus verwenden konnektionistische Modelle eine verteilte Darstellung, was bedeutet, dass Informationen in mehreren Neuronen kodiert werden und nicht an einem einzigen Ort lokalisiert sind. Diese verteilte Darstellung ermöglicht es dem Netzwerk, komplexe Muster zu verarbeiten und anhand begrenzter Beispiele zusammenzufassen.
Der konnektionistische Ansatz ist die Grundlage des Deep Learning, einem Teilgebiet der künstlichen Intelligenz , das sich auf das Training tiefer neuronaler Netze mit mehreren Schichten konzentriert. Deep-Learning-Modelle waren in verschiedenen Bereichen wie Computer Vision, Verarbeitung natürlicher Sprache und Spracherkennung äußerst erfolgreich. Sie haben die Fähigkeit demonstriert, hierarchische Datendarstellungen automatisch zu erlernen, was eine verbesserte Leistung bei komplexen Aufgaben ermöglicht.
Im Allgemeinen betont der konnektionistische Ansatz in der Philosophie der künstlichen Intelligenz die Verwendung künstlicher neuronaler Netze, um die kooperative und parallele Natur der menschlichen Gehirnverarbeitung nachzuahmen. Durch das Lernen aus Daten mithilfe von Gewichtsanpassungen haben sich konnektionistische Systeme als äußerst effektiv bei der Lösung komplexer Probleme und der Erzielung beeindruckender Ergebnisse in KI-Anwendungen erwiesen.
Ein neuronales Netzwerk ist ein Rechenmodell, das von der Struktur und Funktionsweise biologischer neuronaler Netzwerke wie dem menschlichen Gehirn inspiriert ist. Es handelt sich um eine mathematische Struktur, die aus miteinander verbundenen Knoten (künstliche Neuronen) besteht, die in Schichten angeordnet sind. Neuronale Netze sollen Daten verarbeiten und lernen und so Muster erkennen, Vorhersagen treffen und verschiedene Aufgaben ausführen.
Künstliche Neuronen sind die Grundeinheiten eines neuronalen Netzwerks. Jedes Neuron empfängt eine oder mehrere Eingabedaten, führt Berechnungen daran durch und erzeugt Ausgabedaten. Die Ausgabedaten werden normalerweise an andere Neuronen im Netzwerk übertragen.
Die Neuronen in einem neuronalen Netzwerk sind über Verbindungen miteinander verbunden, die den Informationsfluss zwischen ihnen darstellen. Jede Verbindung ist mit einer Gewichtung verknüpft, die die Stärke oder Wichtigkeit des übertragenen Signals bestimmt. Gewichtungsfaktoren werden während des Lernprozesses angepasst, um die Netzwerkleistung zu optimieren.
Neuronale Netze sind üblicherweise in Schichten angeordnet. Die Eingabeschicht empfängt die Anfangsdaten, während die Ausgabeschicht das Endergebnis oder die Vorhersage erzeugt, und dazwischen können eine oder mehrere verborgene Schichten liegen. Die verborgenen Schichten ermöglichen es dem Netzwerk, komplexe Darstellungen durch Transformation und Kombination von Eingabeinformationen zu erlernen.
Jedes Neuron wendet eine Aktivierungsfunktion auf die gewichtete Summe seiner Eingabedaten an, um ein Ausgabesignal zu erzeugen. Die Aktivierungsfunktion bringt Nichtlinearität in das Netzwerk und ermöglicht es ihm, komplexe Verbindungen zu modellieren und nichtlineare Vorhersagen zu treffen.
Neuronale Netze verarbeiten Daten nach dem Feedforward-Prinzip. Eingabedaten durchlaufen das Netzwerk Schicht für Schicht, wobei Berechnungen für jedes Neuron durchgeführt werden. Die Ausgabe einer Ebene dient als Eingabe für die nächste Ebene, bis das Endergebnis generiert wird.
Neuronale Netze lernen Daten durch einen Prozess namens Training. Während des Trainings werden die Eingabedaten zusammen mit den entsprechenden gewünschten Ausgaben dem Netzwerk präsentiert. Durch den Vergleich seiner Vorhersagen mit den gewünschten Ergebnissen werden die Gewichte des Netzwerks mithilfe von Algorithmen wie Gradientenabstieg und Backpropagation angepasst. Dieser iterative Prozess ermöglicht es dem Netzwerk, die Differenz zwischen seinen Vorhersagen und den erwarteten Ergebnissen zu minimieren.
Unter Deep Neural Networks (DNNs) versteht man neuronale Netze mit mehreren verborgenen Schichten. Deep Learning, das sich auf das Training tiefer neuronaler Netze konzentriert, hat in den letzten Jahren aufgrund seiner Fähigkeit, hierarchische Darstellungen automatisch zu lernen und komplexe Muster aus Daten zu extrahieren, große Aufmerksamkeit erregt.
Neuronale Netze sind in einer Vielzahl von Bereichen sehr erfolgreich, darunter Bilderkennung, Verarbeitung natürlicher Sprache, Sprachsynthese und mehr. Sie sind in der Lage, große Datenmengen zu verarbeiten, anhand von Beispielen zusammenzufassen und komplexe Berechnungen durchzuführen, was sie zu einem leistungsstarken Werkzeug im Bereich der künstlichen Intelligenz macht.
„Niemand hat die geringste Ahnung, wie etwas Materielles bewusst sein kann. Niemand weiß, wie es wäre, auch nur die geringste Ahnung davon zu haben, wie etwas Materielles bewusst sein kann.“ (Jerry Fodor, Ernest Lepore, „Holism: a Shopper's Guide“, Blackwell, 1992) . Diese Worte werden Jerry Fodor zugeschrieben, und ich glaube, sie erklären alle Schwierigkeiten, mit denen ich konfrontiert war, als ich versuchte herauszufinden, wie eine Maschine bewusst sein kann. Diese Worte ermutigen mich jedoch nicht, meine Versuche aufzugeben, zu behaupten, dass eine Maschine mit künstlichem Bewusstsein geschaffen werden kann. Tatsächlich bewirken sie das Gegenteil; Sie ermutigen mich zu der Annahme, dass, wenn wir (materielle Wesen) Bewusstsein haben können, Bewusstsein ein materielles Ding sein muss und daher theoretisch künstlich geschaffen werden kann.
Der entscheidende Punkt im Bewusstsein ist, dass dies nicht eine Sache ist. Es handelt sich um eine Reihe polymorpher Konzepte, die alle auf unterschiedliche Weise vermischt sind. Daher ist es schwierig, sie alle zu entwirren und zu versuchen, sie einzeln zu erklären. Es ist wichtig, dies im Hinterkopf zu behalten, denn obwohl ich mein Bestes gebe, um einige Aspekte davon zu erklären, macht es ihre Verknüpfung schwierig. In meinen Schlussfolgerungen versuche ich, alle diese Konzepte zu kombinieren, um die Machbarkeit eines starken künstlichen Bewusstseins in einer virtuellen Maschine zu rechtfertigen.
Im Allgemeinen wird das künstliche Bewusstsein (im Folgenden als AC bezeichnet) in zwei Teile unterteilt: schwaches AC und starkes AC. Weak AC ist „eine Simulation bewussten Verhaltens“. Es kann als intelligentes Programm implementiert werden, das das Verhalten eines bewussten Wesens auf einer bestimmten Detailebene simuliert, ohne die Mechanismen zu verstehen, die Bewusstsein erzeugen. Ein starkes AC ist „wirklich bewusstes Denken, das von einer hochentwickelten Rechenmaschine (künstlichem Gehirn) kommt“. In diesem Fall hängt der Hauptunterschied zum natürlichen Äquivalent von der Hardware ab, die den Prozess generiert.“ Es gibt jedoch einige Wissenschaftler wie Chrisley, die argumentieren, dass es viele Zwischenbereiche von AC gibt, was er als künstliche Bewusstseinsverzögerung bezeichnet.
Da die Computerinnovationen jedes Jahr exponentiell zunehmen, wird die Machbarkeit von Hochleistungs-Wechselstrom immer wichtiger. Da künstliche Intelligenz (im Folgenden als KI bezeichnet) von den Seiten der Science-Fiction in den Bereich der Wissenschaft vordringt, befassen sich immer mehr Wissenschaftler und Philosophen genauer damit. Viele der führenden Denker der Welt, darunter Stephen Hawking, Elon Musk und Bill Gates, haben kürzlich einen offenen Brief unterzeichnet, in dem sie einen verantwortungsvollen Einsatz von KI zum Wohle der gesamten Menschheit fordern. Diese Aussage bezieht sich weder auf diese Art der (rein intellektuellen) künstlichen Intelligenz noch auf die sogenannte „Maschinenfrage“, die die Frage aufwirft: „Wie sollen wir KI programmieren?“ dh welche ethische Doktrin sollte gelehrt werden und warum?
Obwohl diese Themen interessant und äußerst wichtig sind, reicht die Zeit hier einfach nicht aus, um eine eingehende Analyse dieser Themen vorzunehmen. Weitere Informationen hierzu finden Sie unter Nick Bostrom, Miles Brundage und George Lazarus, um nur einige zu nennen.
Wir wissen bereits, dass eine Maschine intelligent handeln kann; und dass sie Logik nutzen kann, um Probleme zu lösen und Lösungen zu finden, weil wir sie dafür programmiert haben, aber Zweifel an der Fähigkeit der Maschine zu phänomenalem Bewusstsein sind aufgetaucht und weit verbreitet. Wir unterscheiden uns von Maschinen darin, dass wir Gefühle, Erfahrungen, einen freien Willen, Überzeugungen usw. haben. Obwohl die meisten Menschen darin übereinstimmen, dass es in unserer Genetik und Biologie ein bestimmtes „Programm“ gibt, sind sie sich sicher, dass sie ihre eigenen Entscheidungen treffen können Ein künstliches Computerprogramm kann ihre erste einzigartige persönliche subjektive Erfahrung nicht reproduzieren.
Diese Aussage wäre jedoch uninteressant, wenn es keine Chance für die Existenz einer Maschine gäbe, die leistungsstarken Wechselstrom erzeugen kann. Die am häufigsten zitierte Bewusstseinstheorie, die mit starkem AC vereinbar ist, ist der Funktionalismus. Das bedeutet, dass Bewusstsein durch seine Funktion definiert wird. In der Theorie ist es vereinfacht, es gibt jedoch einige Arten von Funktionalismus. Die Theorie ist für ihre Verbindung mit Alan Turing, Turing-Maschinen und dem Turing-Test bekannt. Als Abkömmling des Behaviorismus vertritt er (manchmal) eine rechnerische Sichtweise des Geistes und glaubt, dass Funktionen der wahre Parameter des Bewusstseins sind. Er ist bis zu einem gewissen Grad auch dafür bekannt, dass er es versäumt, phänomenales Bewusstsein, qualitative Zustände und Qualia zu erklären. Obwohl es viele Antworten auf dieses Rätsel gibt, befürworte ich eine ontologisch konservative eliminativistische Sichtweise qualitativer Zustände. Was es eliminativistisch macht, ist, dass ich behaupte, dass Qualia, wie sie normalerweise definiert werden, nicht existieren kann. Ich lehne jedoch die Idee ab, dass unser intuitives Verständnis von Qualia und qualitativen Zuständen falsch ist. Das Konzept der Qualia wird einfach missverstanden. Sie können künstlich erzeugt werden. Dies ist eine Untertheorie des größeren Funktionalismus der virtuellen Maschine, wonach ein bewusstes Wesen nicht auf jeweils einen bestimmten Geisteszustand beschränkt ist, sondern sich immer in mehreren Zuständen gleichzeitig befindet. In einer virtuellen Maschine wird dies durch unterschiedliche Systeme und Subsysteme erklärt.
Das ultimative Kriterium für einen moralischen Handelnden (und die ultimative Voraussetzung für die Drei-Bedingungen-Theorie der Autonomie, dh vernünftiges Handeln) ist Rationalität. Dieses Kriterium ist für einen künstlichen Wirkstoff wahrscheinlich das am wenigsten umstrittene, weshalb ich es an letzter Stelle stelle. Rationalität und Logik sind die bestimmenden Merkmale künstlicher Agenten in der Populärkultur. Moderne Computer und schwache KI-Systeme sind für ihre Logik bekannt. Sie führen umfangreiche Berechnungen durch und können äußerst komplexe Entscheidungen schnell und rational treffen. Allerdings ist die Rationalität künstlicher Wirkstoffe nicht frei von Kontroversen. Wie bereits erwähnt, äußert Searle Bedenken hinsichtlich der Fähigkeit einer Maschine, tatsächlich zu denken und zu verstehen, da er behauptet, dass keine Syntax mit der Semantik vergleichbar sein könne. Ich habe den chinesischen Raum und meine Antwort auf dieses Problem bereits behandelt, möchte aber noch einmal die polymorphe Natur des Bewusstseins und die Bedeutung der Berücksichtigung von Qualia und phänomenalem Bewusstsein in einer Bewusstseinstheorie hervorheben.
Es sollte erwähnt werden, dass autonome Rationalität und Rationalität im Allgemeinen nicht dasselbe sind. In Bezug auf Autonomie ist Rationalität der Akt der Einpflanzung Ihres Willens, damit Sie über Ihre „tierischen Instinkte“ hinausgehen und Ihr Leben nach Ihren eigenen rationalen Regeln leben können. Es bedeutet, dass Sie nachdenken, bevor Sie handeln. Insofern ist die Rationalität moderner Computer und schwacher KI-Systeme nicht autonom. Sie haben keine Wahl; Sie tun einfach das, wofür sie programmiert sind. In gewisser Hinsicht hängt dies mit der deterministischen Befolgung der oben diskutierten Algorithmen zusammen, da sie eine freie Wahl beinhaltet. Wie wir gesehen haben, können virtuelle Maschinen recht komplex sein: phänomenal bewusst, nicht deterministisch („frei“), intern absichtlich und sensibel (fähig, Überzeugungen, Wünsche, Schmerz und Vergnügen zu erleben). Aber letzten Endes ist es immer noch eine Maschine. Eines, das, wenn es dieses Maß an Komplexität erreichen sollte, präzise, rational, algorithmisch und architektonisch gestaltet ist und die „kalte Rationalität“ algorithmischer Computer in Kombination mit dem Bewusstsein es autonom rational macht. Seine Gefühle, dh seine Emotionen, sein phänomenales Bewusstsein, seine Fähigkeit, Schmerz/Vergnügen zu erleben, und damit seine Überzeugungen und Wünsche würden es bereit machen, hedonistische Gefühle zu überwinden und rationale und autonome Entscheidungen zu treffen.
Künstliche Intelligenz (KI) ist heute ein sehr dynamisches Forschungsfeld. Es wurde in den 1950er Jahren gegründet und existiert noch heute. Während der KI-Entwicklung haben unterschiedliche Forschungsmethoden den Wettbewerb gefördert und es sind immer wieder neue Herausforderungen und Ideen entstanden. Einerseits gibt es großen Widerstand gegen die theoretische Entwicklung, andererseits haben technologische Fortschritte zu brillanten Ergebnissen geführt, was in der Geschichte der Wissenschaft selten vorkommt.
Ziel der KI und ihrer technologischen Lösungen ist es, menschliche Intelligenz mithilfe von Maschinen zu reproduzieren. Dadurch überschneiden sich die Forschungsgegenstände mit der materiellen und spirituellen Sphäre, was durchaus komplex ist. Die Merkmale der Intelligenz bestimmen den mäandrierenden Charakter der KI-Entwicklung, und viele der Probleme, mit denen die KI konfrontiert ist, stehen in direktem Zusammenhang mit der Philosophie. Es ist leicht zu erkennen, dass viele KI-Experten ein starkes Interesse an Philosophie haben; Ebenso haben die Ergebnisse der KI-Forschung auch in der philosophischen Gemeinschaft große Aufmerksamkeit erregt.
Als Grundlagenforschung der modernen Wissenschaft der künstlichen Intelligenz besteht der Zweck der kognitiven Forschung darin, die Struktur und den Prozess des menschlichen Gehirnbewusstseins klar zu verstehen und eine logische Erklärung für die Kombination von Intelligenz, Emotion und Absicht des menschlichen Bewusstseins zu liefern , weil Experten für künstliche Intelligenz den formalen Ausdruck dieser Bewusstseinsprozesse erleichtern. Um das menschliche Bewusstsein nachzuahmen, muss künstliche Intelligenz zunächst die Struktur und Funktionsweise des Bewusstseins erlernen. Wie ist Bewusstsein möglich? Searle sagte: „Der beste Weg zu erklären, wie etwas möglich ist, besteht darin, zu offenbaren, wie es tatsächlich existiert.“ Dadurch kann die Kognitionswissenschaft die Entwicklung künstlicher Intelligenz vorantreiben. Entscheidend ist, dass dies der wichtigste Grund für die kognitive Wende ist. Dies ist auf die synergistische Beziehung zwischen Philosophie und kognitiver Psychologie, kognitiver Neurowissenschaft, Gehirnwissenschaft, künstlicher Intelligenz und anderen Disziplinen zurückzuführen, unabhängig davon, wie sich Informatik und Technologie entwickeln, von physikalischen Symbolsystemen, Expertensystemen, Wissenstechnik bis hin zu biologischen Computern und deren Entwicklung von Quantencomputern.
Es ist untrennbar mit der Kenntnis und dem Verständnis des gesamten Prozesses des menschlichen Bewusstseins und verschiedener Faktoren durch die Philosophie verbunden. Unabhängig davon, ob es sich um eine starke oder schwache Schule künstlicher Intelligenz handelt, basiert die künstliche Intelligenz aus erkenntnistheoretischer Sicht auf einem System physischer Symbole, um einige Funktionen des menschlichen Denkens zu simulieren. Seine tatsächliche Simulation des menschlichen Bewusstseins hängt jedoch nicht nur von den technologischen Innovationen des Roboters selbst ab, sondern auch vom philosophischen Verständnis des Bewusstseinsprozesses und der ihn beeinflussenden Faktoren. Aus heutiger Sicht besteht das philosophische Problem der künstlichen Intelligenz nicht darin, was das Wesen künstlicher Intelligenz ausmacht, sondern vielmehr in der Lösung einiger spezifischerer Probleme der intellektuellen Modellierung.
Kann eine Maschine im Hinblick auf die Frage der Intentionalität einen Geist oder ein Bewusstsein haben? Wenn ja, kann es Menschen absichtlich schaden?
Die Debatte darüber, ob Computer absichtlich sind, lässt sich wie folgt zusammenfassen:
Was ist Intentionalität? Ist es beabsichtigt, dass sich ein Roboter entsprechend den Anweisungen auf eine bestimmte Weise verhält?
Die Menschen wissen bereits, was sie tun, bevor sie handeln. Sie haben Selbstbewusstsein und wissen, wohin ihr Handeln führen wird. Dies ist ein wichtiges Merkmal des menschlichen Bewusstseins. Wie sollen wir also verstehen, dass sich ein Roboter entsprechend den Anweisungen auf eine bestimmte Weise verhält?
Kann Intentionalität programmiert werden?
Searle glaubt, dass „die Art und Weise, wie das Gehirn das Herz erschafft, nicht einfach die Bedienung eines Computerprogramms sein kann“. Stattdessen sollten die Menschen fragen: Ist Intentionalität ein intelligibler Geist? Wenn es verstanden werden kann, warum kann es dann nicht programmiert werden? Searle glaubt, dass Computer über Grammatik, aber nicht über Semantik verfügen. Tatsächlich handelt es sich bei Grammatik und Semantik jedoch um ein Zwei-in-Eins-Problem, das nie getrennt werden kann. Wenn ein Programm Grammatik und Semantik zusammen integrieren kann, müssen wir dann zwischen Grammatik und Semantik unterscheiden? Searle argumentiert, dass selbst wenn ein Computer absichtlich kopiert, die Kopie nicht das Original sei. Wenn wir ein klares Verständnis der menschlichen Kognition und ihres Zusammenhangs mit menschlichem Verhalten haben, sollten wir tatsächlich in der Lage sein, den Zusammenhang zwischen unseren mentalen Prozessen und dem Verhalten des menschlichen Gehirns zu programmieren und alle Arten von Menschen, die wir kennen, einzubeziehen. Dies sind die Informationen, die einen Computer dazu bringen, „alles zu wissen“. Können wir jedoch zu diesem Zeitpunkt so sein, wie Searle sagte? Ist künstliche Intelligenz nicht Intelligenz? Hat künstliche Intelligenz keine Intentionalität und keine Denkprozesse, weil ihr menschliche Proteine und Nervenzellen fehlen? Ist absichtliches Kopieren „absichtlich“? Ist das Kopieren eines Verständnisses ein echtes „Verstehen“? Ist die Vervielfältigung von Ideen „Denken“? Ist die Duplizierung des Denkens „Denken“? Unsere Antwort ist, dass die Basis unterschiedlich ist, aber die Funktion dieselbe ist. Künstliche Intelligenz stützt sich auf unterschiedliche Grundlagen, um dieselbe Funktion zu bilden, und ist lediglich eine besondere Art, unsere menschliche Intelligenz zu verwirklichen. Searle nutzt Intentionalität, um die Tiefe der künstlichen Intelligenz zu leugnen. Obwohl es eine gewisse Grundlage dafür gibt, dass künstliche Intelligenz menschliche Gedanken simulieren kann, werden wir das Gefühl haben, dass dieser Unterschied nicht mehr relevant ist, selbst wenn die Menschen denken, dass künstliche Intelligenz und menschliche Intelligenz sich erheblich unterscheiden. Searles Standpunkt kann das menschliche Herz nur erneut rätseln!
Was die Frage der Intelligenz betrifft: Können Maschinen mithilfe von Intelligenz Probleme auf die gleiche Weise lösen wie Menschen? Oder gibt es eine Grenze, bis zu der eine Maschine über die Intelligenz verfügen kann, jedes komplexe Problem zu lösen?
Menschen können sogenannte verborgene Fähigkeiten unbewusst nutzen, so Polanyi: „Menschen wissen mehr, als sie ausdrücken können“. Dazu gehören Radfahren und Aufwärmen sowie ein höheres Maß an praktischen Fähigkeiten. Wenn wir die Regeln nicht verstehen, können wir sie dem Computer leider nicht beibringen. Das ist Polanyis Paradoxon. Um dieses Problem zu lösen, versuchten Informatiker nicht, die menschliche Intelligenz zu verändern, sondern entwickelten eine neue Denkweise für künstliche Intelligenz – das Denken mittels Daten.
Rich Caruana, leitender Forschungswissenschaftler bei Microsoft Research, sagte: „Man könnte meinen, dass das Prinzip der künstlichen Intelligenz darin besteht, dass wir zuerst Menschen verstehen und dann auf die gleiche Weise künstliche Intelligenz erschaffen, aber das ist nicht der Fall.“ Er sagte: „ Nehmen wir als Beispiel Flugzeuge. Sie wurden gebaut, lange bevor man verstand, wie Vögel fliegen. Die Prinzipien der Aerodynamik waren andere, aber heute fliegen unsere Flugzeuge höher und schneller als jedes Tier.“
Heutzutage geht man allgemein davon aus, dass intelligente Computer unsere Arbeit übernehmen werden. Bevor Sie mit dem Frühstück fertig sind, ist Ihr wöchentliches Arbeitspensum bereits erledigt und Sie machen keine Pause, trinken keinen Kaffee, ziehen sich zurück und müssen nicht einmal schlafen. Die Wahrheit ist jedoch, dass viele Aufgaben in Zukunft zumindest kurzfristig automatisiert werden werden, dieser neue Typ intelligenter Maschinen jedoch wahrscheinlich mit uns zusammenarbeiten wird.
Das Problem der künstlichen Intelligenz ist eine moderne Version von Polanyis Paradoxon. Wir verstehen den Lernmechanismus des menschlichen Gehirns nicht vollständig und lassen daher künstliche Intelligenz wie eine Statistik denken. Die Ironie besteht darin, dass wir derzeit nur sehr wenig darüber wissen, wie künstliche Intelligenz denkt, sodass wir zwei unbekannte Systeme haben. Dies wird oft als „Black-Box-Problem“ bezeichnet: Sie kennen die Eingabe- und Ausgabedaten, haben aber keine Ahnung, wie die Box vor Ihnen zu dem Ergebnis gekommen ist. Caruana sagte: „Wir haben jetzt zwei verschiedene Arten von Intelligenz, aber wir können nicht beide vollständig verstehen.“
Ein künstliches neuronales Netzwerk verfügt über keine Sprachfähigkeiten, kann also nicht erklären, was es tut und warum, und es mangelt ihm wie jeder künstlichen Intelligenz an gesundem Menschenverstand. Die Menschen sind zunehmend besorgt darüber, dass einige KI-Operationen manchmal bewusste Vorurteile wie Sexismus oder Rassendiskriminierung verbergen können. Beispielsweise gibt es eine aktuelle Software, mit der die Wahrscheinlichkeit wiederholter Straftaten durch Kriminelle abgeschätzt werden kann. Für Schwarze ist es doppelt so hart. Wenn die Daten, die sie erhalten, einwandfrei sind, ist ihre Entscheidung wahrscheinlich richtig, aber meist unterliegt sie menschlicher Voreingenommenheit.
Was die Frage der Ethik betrifft: Können Maschinen für den Menschen gefährlich sein? Wie können Wissenschaftler sicherstellen, dass sich Maschinen ethisch verhalten und keine Gefahr für den Menschen darstellen?
Unter Wissenschaftlern gibt es viele Debatten darüber, ob Maschinen Gefühle wie Liebe oder Hass empfinden können. Sie glauben auch, dass Menschen keinen Grund haben, von der KI zu erwarten, dass sie bewusst nach Gut und Böse strebt. Bei der Frage, wie künstliche Intelligenz zum Risiko wird, gehen Experten davon aus, dass zwei Szenarien am wahrscheinlichsten sind:
KI ist darauf ausgelegt, zerstörerische Aufgaben auszuführen: Autonome Waffen sind Systeme künstlicher Intelligenz, die zum Töten entwickelt wurden. Wenn diese Waffen in die Hände der Bösen geraten, können sie leicht großen Schaden anrichten. Darüber hinaus könnte der KI-Rüstungswettlauf auch unbeabsichtigt einen KI-Krieg auslösen, der eine große Zahl von Opfern zur Folge hätte. Um eine Einmischung feindlicher Kräfte zu vermeiden, werden „geschlossene“ Waffenprogramme äußerst komplex ausgelegt, so dass in solchen Situationen auch der Mensch die Kontrolle verlieren kann. Während dieses Risiko auch bei spezieller künstlicher Intelligenz (schmale KI) besteht, wird es mit intelligenter KI und höherem Grad an Selbststeuerung zunehmen.
KI wurde entwickelt, um nützliche Aufgaben zu erfüllen, aber der Prozess, den sie ausführt, kann störend sein: Dies kann passieren, wenn die Ziele von menschlicher und künstlicher Intelligenz noch nicht vollständig aufeinander abgestimmt sind, während die Zielausrichtung von menschlicher und künstlicher Intelligenz keine leichte Aufgabe ist. Stellen Sie sich vor, Sie rufen ein intelligentes Auto an, das Sie mit der schnellstmöglichen Geschwindigkeit zum Flughafen bringen soll. Es könnte Ihren Anweisungen verzweifelt folgen, auch auf eine Weise, die Sie nicht möchten: Sie könnten von einem Hubschrauber verfolgt werden oder sich wegen Geschwindigkeitsüberschreitung übergeben. Wenn der Zweck des superintelligenten Systems ein ehrgeiziges Geo-Engineering-Projekt ist, könnte ein Nebeneffekt die Zerstörung des Ökosystems sein, und menschliche Versuche, dies zu stoppen, würden als Bedrohung angesehen, die beseitigt werden muss.
Was die Frage der Konzeptualität angeht, gibt es Probleme mit der konzeptionellen Grundlage der künstlichen Intelligenz.
Jede Wissenschaft basiert auf dem, was sie weiß, und selbst die Fähigkeit zur wissenschaftlichen Beobachtung ist mit altbekannten Dingen verbunden. Wir können uns nur auf das verlassen, was wir wissen, um das Unbekannte zu verstehen. Das Bekannte und das Unbekannte sind immer ein Paar von Widersprüchen, die immer nebeneinander existieren und voneinander abhängig sind. Ohne das Bekannte können wir das Unbekannte nicht lernen; Ohne das Unbekannte können wir die Entwicklung und Weiterentwicklung wissenschaftlicher Erkenntnisse nicht gewährleisten. Es gibt viele Hinweise darauf, dass die Erfahrung, die der Betrachter macht, wenn Menschen Objekte beobachten, nicht durch das Licht bestimmt wird, das in ihre Augäpfel eindringt. Das Signal wird nicht nur durch das Bild auf der Netzhaut des Betrachters bestimmt. Selbst zwei Personen, die dasselbe Objekt betrachten, werden unterschiedliche visuelle Eindrücke gewinnen. Wie Hansen sagte: Wenn ein Beobachter ein Objekt betrachtet, sieht er viel mehr, als der Augapfel berührt. Beobachtungen sind für die Wissenschaft sehr wichtig, aber „Aussagen über Beobachtungen müssen in der Sprache einer bestimmten Theorie gemacht werden“. „Aussagen über Beobachtungen sind öffentliche Themen und werden in öffentlicher Sprache abgegeben. Sie enthalten Theorien unterschiedlicher Universalität und Komplexität.“ Dies zeigt, dass Beobachtung Theorie erfordert. Wissenschaft braucht Theorie als Vorläufer, und wissenschaftliches Verständnis basiert nicht auf dem Unbekannten. Unternehmen fehlt oft das Verständnis für die besten Optionen für ihr Geschäft und Beratungsdienste für künstliche Intelligenz versuchen, das Geschäft mit KI zu steuern.
Trotz klarer Unterschiede in den Ansätzen haben Technologie (im Allgemeinen) und Philosophie dasselbe Interessenobjekt: Menschen.
Ziel der Technologieentwicklung ist es, ein konkretes praktisches Problem im Alltag zu lösen und so seinen Nutzen für die Menschheit in naher Zukunft zu erhöhen. Doch in den meisten Fällen geht der Umfang der technologischen Entwicklung nicht über die praktischen und aktuellen Probleme hinaus, mit denen sie sich befasst. Dies ist einfach nicht erforderlich, wenn das Problem technisch lösbar ist. Technologie verfolgt immer ein Ziel: nützlich zu sein. Es scheint ein rein instrumenteller Ansatz zu sein (M. Taddeo und L. Floridi, „How AI can be a force for good“, Science, Aug. 2018), der sich kaum um die Nebenwirkungen seiner Produkte kümmert.
Im Gegensatz dazu befasst sich die Philosophie nicht nur mit aktuellen Fragen und praktischen Aspekten der menschlichen Existenz. Um eine möglichst breite Sicht auf ein bestimmtes Thema zu gewinnen, untersucht die philosophische Analyse nicht nur den Untersuchungsgegenstand selbst, sondern auch seine ethischen Implikationen und andere mögliche Einflüsse auf menschliche Angelegenheiten. Ein Teil davon ist die Untersuchung der Entstehung, Entwicklung und Natur von Werten. Daher ist die sorgfältige Analyse und Kritik allgemeiner Positionen und aktueller Ereignisse zur Feststellung von Veränderungen in einem bestimmten Wertesystem die Hauptaufgabe im Bereich der Philosophie.
Kurz gesagt, die Philosophie wirft in der Regel neue Fragen und Probleme auf, während der Zweck der Technologie, insbesondere der KI, natürlich darin besteht, spezifische und bestehende Probleme zu lösen. Vor diesem Hintergrund erscheint die Symbiose zwischen diesen beiden Bereichen auf den ersten Blick paradox.
Indem die Technologie jedoch immer neue Fragen stellt und vorgeschlagene technologische Lösungen kritisiert, insbesondere indem sie das zugrunde liegende Problem auf präzise philosophische Weise untersucht, kann sie langfristige und detailliertere Lösungen bieten. Die Philosophie stellt die Werkzeuge für diesen vorausschauenden Prozess bereit, wie etwa logische Analyse, ethische und moralische Prüfung und eine tiefgreifende Methodik zum Stellen der richtigen Fragen. Um dies ins rechte Licht zu rücken: Wie wird sich KI auf die Zukunft der Arbeit auswirken?
Dies ergänzt auf jeden Fall die zukunftsweisende Entwicklung neuer Technologien. Wenn im Entwicklungsprozess möglichst viele mögliche Ergebnisse sowohl des Problems als auch der vorgeschlagenen technischen Lösung berücksichtigt werden, können zukünftige Probleme nachhaltig gelöst werden. All dies gilt für künstliche Intelligenz als Teilbereich der Technologie, die nun als „die Wissenschaft und Technologie der Schaffung intelligenter Maschinen, insbesondere intelligenter Software“ definiert werden sollte („Näher an der Maschine: Technische, soziale und rechtliche Aspekte der KI“ , Büro des Victorian Information Commissioner, Toby Walsh, Kate Miller, Jake Goldenfein, Fang Chen, Jianlong Zhou, Richard Nock, Benjamin Rubinstein, Margaret Jackson, 2019).
Doch der Zusammenhang zwischen künstlicher Intelligenz und Philosophie ist viel weitreichender.
Der einzigartige Zusammenhang zwischen künstlicher Intelligenz und Philosophie wurde bereits vom Informatiker John McCarthy hervorgehoben. Obwohl die Philosophie die gesamte technische Wissenschaft im Allgemeinen ergänzt, ist sie sogar für die künstliche Intelligenz als Spezialdisziplin von entscheidender Bedeutung und stellt eine grundlegende Methodik für das Fachgebiet dar.
Philosophen haben einige der Grundkonzepte der KI entwickelt. Beispiele hierfür sind „...die Untersuchung der Merkmale, die ein Artefakt besitzen muss, um als intelligent zu gelten“ („Industrielle Revolutionen: die 4 wichtigsten Revolutionen in der industriellen Welt“, Sentryo, 23. Februar 2017) oder das Elementare Konzept der Rationalität, das auch aus dem philosophischen Diskurs hervorgegangen ist.
Interessanter in diesem Zusammenhang ist die Tatsache, dass die Philosophie die Entwicklung der künstlichen Intelligenz leiten und ihre Integration in unser Leben organisieren muss, da es sich dabei nicht nur um triviale Technologien, sondern auch um völlig neue und unerforschte ethische und soziale Fragen handelt.