De nombreuses personnalités célèbres de la philosophie de la technologie ont tenté de comprendre l’essence de la technologie et de la relier à la société et à l’expérience humaine. Dans la première moitié du XXe siècle, les résultats de leurs analyses montraient principalement une divergence entre la technologie et la vie humaine.
La technologie était considérée comme une force autonome qui écrasait les éléments fondamentaux de l’humanité. En ramenant le concept de technologie à des hypothèses historiques et transcendantales, les philosophes semblaient faire abstraction de l’impact d’événements spécifiques.
Dans les années 80, une vision plus empirique de la technologie s'est développée, basée sur les idées de philosophes américains qui ont intégré l'impact de technologies spécifiques dans leurs vues (Achterhuis, HJ, "Van Stoommachine tot cyborg; denken over techniek in de nieuwe areld", 1997 ) . L'interdépendance de la technologie et de la société est le thème principal de cette étude. Ce « tournant empirique » a permis d’expliquer la polyvalence de la technologie et les nombreux rôles qu’elle peut jouer dans la société. Cette approche a été développée davantage par les philosophes de la technologie, par exemple à l’Université de Twente.
L'intelligence artificielle a été créée en tant que domaine de recherche en 1956. Elle s'intéresse au comportement intelligent des machines informatiques. Les objectifs de la recherche peuvent être divisés en quatre catégories :
Après de nombreuses années d'optimisme quant à la capacité d'accomplir ces tâches, le domaine a été confronté à des défis quant à la manière de représenter l'intelligence qui pourrait être utile dans les applications. Ceux-ci comprenaient le manque de connaissances de base, la complexité du calcul et les limites des structures de représentation des connaissances (Russell, S & Norvig, « Artificial Intelligence : A Modern Approach », Peter, 2009) . Mais les défis ne provenaient pas uniquement de la communauté du design. Les philosophes, qui depuis l’époque de Platon s’intéressaient à l’esprit et au raisonnement, commencèrent également à se plaindre. En utilisant à la fois des objections mathématiques (basées sur Turing et Gödel) et des arguments plus philosophiques sur la nature de l’intelligence humaine, ils ont tenté de montrer les limites internes du projet d’IA. Le plus célèbre d’entre eux était Hubert Dreyfus.
Dreyfus considérait les objectifs et les méthodes de l’intelligence artificielle comme une vision clairement rationaliste de l’intelligence. Cela a été défendu par de nombreux philosophes rationalistes tout au long de l’histoire, mais Dreyfus lui-même était plutôt un partisan de la philosophie antirationaliste du XXe siècle, comme on peut le voir dans les travaux de Heidegger, Merleau-Ponty et Wittgenstein. Selon Dreyfus, le mode de cognition le plus fondamental est intuitif et non rationnel. Acquérant de l'expérience dans un certain domaine, une personne ne s'attache aux règles formalisées que lors de la première étude de l'argumentation. Après cela, l’intelligence est plus susceptible d’être représentée par des règles empiriques et des décisions intuitives.
L’approche rationnelle de l’IA se retrouve clairement dans les fondements de ce que l’on appelle l’IA symbolique. Les processus intelligents sont considérés comme une forme de traitement de l’information et la représentation de cette information est symbolique. Ainsi, l’intelligence se limite plus ou moins à la manipulation de symboles. Dreyfus a analysé cela comme une combinaison de trois hypothèses fondamentales :
Dreyfus a non seulement critiqué ces hypothèses, mais a également défini certains concepts qu'il croyait essentiels au renseignement. Selon Dreyfus, l’intelligence est incarnée et localisée. L'incarnation est difficile à expliquer car il n'est pas clair si cela signifie que l'intelligence nécessite un corps ou si elle ne peut se développer qu'avec l'aide d'un corps. Mais au moins il est clair que Dreyfus considère que l'intelligence dépend de la situation dans laquelle se trouve l'agent intellectuel et que les éléments sont dans une relation significative avec leur contexte. Cela évite que la réalité soit réduite à des entités formalisées. Le point de vue de Dreyfus rend impossible le fonctionnement de machines manipulant des symboles au-delà d’un espace formel clairement défini.
Dreyfus a une attitude plus positive à l’égard de l’approche connexionniste de l’intelligence artificielle. Cette approche voit un comportement intelligent émerger de structures modélisées qui ressemblent aux neurones et à leurs connexions dans le cerveau humain. Mais il doute que la complexité du cerveau humain soit jamais possible dans de telles machines.
Ainsi, Dreyfus a lancé une discussion sur la faisabilité des objectifs de l’IA. Son travail a attiré beaucoup d’attention et suscité de vifs débats. Il a même réussi à faire changer de point de vue certains chercheurs et à commencer à mettre en œuvre des systèmes plus compatibles avec sa vision. Dreyfus a démontré les hypothèses formulées par l'IA symbolique et a précisé qu'il n'est en aucun cas évident que ces hypothèses aboutiront à de véritables machines intelligentes ( Mind Over Machine : The Power of Human Intuition and Expertise in the Era of the Computer ) .
Toutefois, deux remarques doivent être faites. Premièrement, Dreyfus a fondé ses critiques sur des approches symboliques strictes de l’IA. Au cours des dernières décennies, plusieurs tentatives ont été faites pour créer des systèmes intelligents plus hybrides et mettre en œuvre des méthodes non basées sur des règles dans l’IA symbolique. Ces systèmes proposent une vision différente de l’intelligence qui ne peut être pleinement expliquée par l’analyse de Dreyfus. Deuxièmement, la critique de Dreyfus semble reposer sur une vision sceptique de l'intelligence artificielle, en partie à cause de son propre bagage philosophique et en partie parce que les fondations ont été établies à une époque où l'enthousiasme était presque illimité.
Le libre arbitre est un concept étrange. La philosophie peut aborder l’esprit humain de plusieurs manières, mais lorsqu’il s’agit de savoir si nous sommes libres dans nos décisions, la discussion devient dangereuse. Nous sommes tellement habitués à penser en termes de volonté, de décisions et d’actions que nous refusons pour la plupart d’envisager la possibilité que nous ne soyons pas libres dans nos choix. Mais il y a autre chose. Et si je disais au cours d’une telle discussion qu’il n’y a pas du tout de libre arbitre chez les humains ? Si c'est faux, j'ai tort, et si c'est vrai, alors toute la remarque perd son sens parce que je ne pouvais que dire cela. Le déni du libre arbitre est une contradiction pragmatique. Vous ne pouvez pas nier le libre arbitre d’une personne sans vider ce déni de sens.
Néanmoins, la question du libre arbitre semble pertinente, puisque les théories scientifiques peuvent affirmer que tout ce qui se passe suit les lois de la nature. Ainsi, soit nous devons accorder aux gens des propriétés spéciales, soit nier que les lois de la nature sont déterminées si nous ne voulons pas être des machines organiques déterminées. La première option est liée à de nombreuses théories philosophiques, mais surtout à la théorie de Descartes, qui divise le monde en deux substances (l'esprit et la matière) qui sont liées chez l'homme. La deuxième option ouvre une vision plus holistique qui utilise les derniers développements de la physique (relativité, mécanique quantique) pour montrer que notre libre arbitre peut se fonder sur la dynamique imprévisible de la nature.
La vision dualiste de Descartes et d’autres nie l’existence du libre arbitre pour les choses autres que les humains. Par conséquent, la discussion sur le libre arbitre et les machines intelligentes n’est pas particulièrement intéressante. D’un autre côté, la vision holistique est plus adaptée à un tel débat, mais il est difficile de parvenir à d’autres conclusions que les hypothèses physiques requises pour attribuer la propriété du libre arbitre aux humains ou aux ordinateurs. Cela peut être approprié dans une discussion purement philosophique, mais n’a pas grand-chose à voir avec l’informatique.
Il existe également la possibilité de reconnaître que la nature humaine est intrinsèquement contradictoire, dans la mesure où les points de vue déterministes et libres sont justifiés et nécessaires. Cette approche dialectique nous permet de réfléchir au libre arbitre chez l’humain sans se soucier des présupposés physiques. Le libre arbitre devient un présupposé transcendant de l’être humain. Cependant, la vision transcendantale du libre arbitre dans cette approche ne permet pas de discuter du libre arbitre dans des artefacts spécifiques tels que les machines intelligentes puisqu'il est impossible de modéliser ou de concevoir des présupposés transcendantaux. Plus loin dans cette section, je transformerai le concept complexe de libre arbitre en un concept pouvant être utilisé pour analyser les machines intelligentes. Ce concept devrait être compatible avec une approche empirique de la philosophie de la technologie. Il faut donc éviter de parler du concept de libre arbitre en termes de présupposés physiques ou transcendantaux mais plutôt se concentrer sur le rôle que ce concept joue dans la société.
L’indice de mon approche dans cet article se trouve dans le paragraphe d’introduction. Mon point de vue sur le débat sur le libre arbitre est qu’il existe deux approches fondamentalement différentes dans toute recherche dans ce domaine. La première se concentre sur des questions philosophiques profondes concernant la nature du libre arbitre et la capacité des individus à éviter les « exigences » de la nature. Je l'appellerai l'approche physique. Dans l'article sur les machines intelligentes, cela conduit à un débat philosophique qui se concentre sur la nature des humains plutôt que sur la nature des ordinateurs, car nous nous retrouvons dans une position où nous devons de toute façon défendre notre propre volonté et dire quelque chose à ce sujet. ordinateurs parce que nous voulions juste écrire un article à ce sujet. En d’autres termes, la discussion se transforme en une comparaison entre les humains et les ordinateurs, dans laquelle ni les humains ni les ordinateurs ne peuvent se reconnaître.
Une autre approche, subtilement suggérée dans le premier paragraphe de cette section, se concentre sur l'impossibilité de nier notre propre libre arbitre. Comme mentionné précédemment, ce déni n’a aucun sens. Mais non seulement cela se dévalorise, mais cela détruit également les fondements de la responsabilité dans son ensemble. Cela signifie que nous ne pouvons pas féliciter ou blâmer les gens pour ce qu’ils disent ou font, nous devons donc reconsidérer les principes de compétence, de travail, d’amitié, d’amour et tout ce sur quoi nous avons construit notre société. Tous ces problèmes sociaux nécessitent un choix, et lorsqu’il s’agit de choix, le concept de libre arbitre est essentiel. L’essentiel est que le libre arbitre est une présomption importante pour notre société, qu’elle soit ou non physiquement justifiée. J’appellerai cela l’approche sociale.
Il est difficile de savoir si la présomption de libre arbitre est nécessaire uniquement pour notre société ou pour toute société humaine. J’examinerai quand même cette question, car elle pourrait fournir une justification plus philosophique de l’importance du libre arbitre que de simplement pointer du doigt la structure de notre propre société. Il semble impossible de répondre sans reconsidérer la nature humaine et réintroduire ainsi une approche physique du libre arbitre. Mais lorsque nous affirmons que l’interaction est au cœur de la civilisation humaine, le besoin du concept de libre arbitre apparaît naturellement. Nous ne pouvons pas interagir avec les gens sans supposer qu’ils sont libres d’influencer le cours de l’interaction, puisque toute interaction humaine implique que nous n’en connaissons pas le résultat à l’avance. Ainsi, les interactions sont caractérisées par le choix et donc par la notion de libre arbitre. Si les interactions sont fondamentales dans toute société, nous devons également affirmer que le libre arbitre ne peut être nié dans aucune société.
L'intelligence artificielle symbolique (IA) est un sous-domaine de l'IA qui se concentre sur le traitement et la manipulation de symboles ou de concepts plutôt que de données numériques. L’objectif de l’intelligence artificielle symbolique est de créer des systèmes intelligents capables de raisonner et de penser comme les humains en représentant et en manipulant des connaissances et un raisonnement basés sur des règles logiques.
Les algorithmes d'intelligence artificielle symbolique fonctionnent en traitant des symboles qui représentent des objets ou des concepts du monde et leurs connexions. La principale approche de l’intelligence artificielle symbolique consiste à utiliser la programmation logique, où des règles et des axiomes sont utilisés pour tirer des conclusions. Par exemple, nous disposons d’un système d’intelligence artificielle symbolique conçu pour diagnostiquer des maladies en fonction des symptômes signalés par un patient. Le système dispose d'un ensemble de règles et d'axiomes qu'il utilise pour tirer des conclusions sur l'état du patient.
Par exemple, si un patient signale de la fièvre, le système peut appliquer la règle suivante : SI le patient a de la fièvre ET qu'il tousse ET qu'il a des difficultés à respirer, ALORS le patient peut avoir une pneumonie.
Ensuite, le système vérifiera si le patient a également de la toux et des difficultés respiratoires et, si c'est le cas, il conclura que le patient peut souffrir d'une pneumonie.
Cette approche est très facile à interpréter car nous pouvons facilement retracer le processus de raisonnement jusqu’aux règles logiques appliquées. Cela facilite également la modification et la mise à jour des règles du système à mesure que de nouvelles informations deviennent disponibles.
L'IA symbolique utilise des langages formels, tels que la logique, pour représenter les connaissances. Ces connaissances sont traitées par des mécanismes de raisonnement qui utilisent des algorithmes pour manipuler les symboles. Cela permet la création de systèmes experts et de systèmes d’aide à la décision capables de tirer des conclusions basées sur des règles et des connaissances prédéfinies.
L’intelligence artificielle symbolique diffère des autres méthodes d’IA, telles que l’apprentissage automatique et l’apprentissage profond, car elle ne nécessite pas de grandes quantités de données d’entraînement. Au lieu de cela, l’IA symbolique est basée sur la représentation et le raisonnement des connaissances, ce qui la rend plus adaptée aux domaines où les connaissances sont clairement définies et peuvent être représentées dans des règles logiques.
D’un autre côté, l’apprentissage automatique nécessite de grands ensembles de données pour apprendre des modèles et faire des prédictions. L'apprentissage profond utilise des réseaux de neurones pour apprendre des fonctionnalités directement à partir des données, ce qui le rend adapté aux domaines comportant des données complexes et non structurées.
Cela dépend du domaine et des données disponibles quand appliquer chaque technique. L’intelligence artificielle symbolique convient aux domaines dotés de connaissances bien définies et structurées, tandis que l’apprentissage automatique et le deep learning conviennent aux domaines comportant de grandes quantités de données et des modèles complexes.
L’approche connexionniste de la philosophie de l’intelligence artificielle repose sur les principes des réseaux de neurones et leur similitude avec le cerveau humain. Cette approche vise à imiter le comportement des neurones interconnectés dans les systèmes biologiques pour traiter l'information et apprendre des données. Voici quelques aspects clés de l’approche connexionniste.
L'approche connexionniste implique la création de réseaux de neurones artificiels constitués de nœuds interconnectés, souvent appelés neurones ou nœuds artificiels. Ces neurones artificiels sont conçus pour recevoir des données d'entrée, effectuer des calculs et transmettre des signaux à d'autres neurones du réseau.
L’approche connexionniste suppose que les neurones artificiels d’un réseau travaillent ensemble pour traiter l’information. Chaque neurone reçoit des signaux d'entrée, effectue des calculs basés sur ceux-ci et transmet des signaux de sortie à d'autres neurones. Le résultat du réseau est déterminé par l’activité collective de ses neurones, tandis que l’information circule à travers les connexions entre eux. Un aspect important de l’approche connexionniste est la capacité des réseaux de neurones artificiels à apprendre des données. Au cours du processus d'apprentissage, le réseau ajuste la force des connexions (poids) entre les neurones en fonction des données d'entrée et du résultat souhaité. Sur la base de la comparaison itérative de la sortie prévue du réseau avec le résultat attendu, les pondérations sont mises à jour pour minimiser les différences et améliorer les performances du réseau.
Les systèmes connexionnistes mettent en avant le traitement parallèle, où plusieurs calculs sont effectués simultanément sur le réseau. Cela garantit un traitement efficace et fiable des informations. De plus, les modèles connexionnistes utilisent une représentation distribuée, ce qui signifie que les informations sont codées dans plusieurs neurones plutôt que localisées en un seul endroit. Cette représentation distribuée permet au réseau de traiter des modèles complexes et de les résumer sur la base d'exemples limités.
L'approche connexionniste est à la base de l'apprentissage profond, un sous-domaine de l'intelligence artificielle qui se concentre sur la formation de réseaux neuronaux profonds à plusieurs couches. Les modèles d’apprentissage profond ont connu un énorme succès dans divers domaines tels que la vision par ordinateur, le traitement du langage naturel et la reconnaissance vocale. Ils ont démontré leur capacité à apprendre automatiquement les représentations hiérarchiques des données, ce qui offre des performances avancées dans des tâches complexes.
En général, l’approche connexionniste de la philosophie de l’intelligence artificielle met en avant l’utilisation de réseaux de neurones artificiels pour imiter la nature coopérative et parallèle du traitement du cerveau humain. En apprenant des données grâce à des ajustements de poids, les systèmes connexionnistes se sont révélés très efficaces pour résoudre des problèmes complexes et obtenir des résultats impressionnants dans les applications d’IA.
Un réseau de neurones est un modèle informatique inspiré de la structure et du fonctionnement des réseaux de neurones biologiques tels que le cerveau humain. C'est une structure mathématique composée de nœuds interconnectés (neurones artificiels) disposés en couches. Les réseaux de neurones sont destinés à traiter et à apprendre des données, leur permettant ainsi de reconnaître des modèles, de faire des prédictions et d'effectuer diverses tâches.
Les neurones artificiels sont les unités de base d'un réseau neuronal. Chaque neurone reçoit une ou plusieurs données d'entrée, effectue des calculs sur celles-ci et produit des données de sortie. Les données de sortie sont généralement transmises aux autres neurones du réseau.
Les neurones d'un réseau neuronal sont connectés les uns aux autres via des connexions qui représentent le flux d'informations entre eux. Chaque connexion est liée à un poids qui détermine la force ou l'importance du signal transmis. Les facteurs de pondération sont ajustés pendant le processus d'apprentissage pour optimiser les performances du réseau.
Les réseaux de neurones sont généralement disposés en couches. La couche d'entrée reçoit les données initiales, tandis que la couche de sortie produit le résultat final ou la prédiction, et il peut y avoir une ou plusieurs couches cachées entre les deux. Les couches cachées permettent au réseau d'apprendre des représentations complexes en transformant et en combinant les informations d'entrée.
Chaque neurone applique une fonction d'activation à un total pondéré de ses données d'entrée pour produire un signal de sortie. La fonction d'activation apporte de la non-linéarité au réseau, lui permettant de modéliser des connexions complexes et de faire des prédictions non linéaires.
Les réseaux de neurones traitent les données selon le principe du feedforward. Les données d'entrée traversent le réseau couche par couche, avec des calculs effectués sur chaque neurone. La sortie d’une couche sert d’entrée à la couche suivante jusqu’à ce que le résultat final soit généré.
Les réseaux de neurones apprennent les données grâce à un processus appelé formation. Pendant la formation, les données d'entrée sont présentées au réseau avec les sorties souhaitées correspondantes. En comparant ses prédictions avec les résultats souhaités, les poids du réseau sont ajustés à l'aide d'algorithmes tels que la descente de gradient et la rétropropagation. Ce processus itératif permet au réseau de minimiser l'écart entre ses prédictions et les résultats attendus.
Les réseaux de neurones profonds (DNN) font référence à des réseaux de neurones comportant plusieurs couches cachées. L'apprentissage profond, qui se concentre sur la formation de réseaux neuronaux profonds, a attiré une attention considérable ces dernières années en raison de sa capacité à apprendre automatiquement des représentations hiérarchiques et à extraire des modèles complexes à partir de données.
Les réseaux de neurones ont connu beaucoup de succès dans divers domaines, notamment la reconnaissance d'images, le traitement du langage naturel, la synthèse vocale, etc. Ils sont capables de traiter de grandes quantités de données, de résumer à partir d’exemples et d’effectuer des calculs complexes, ce qui en fait un outil puissant dans le domaine de l’intelligence artificielle.
« Personne n’a la moindre idée de la façon dont quelque chose de matériel peut être conscient. Personne ne sait même ce que ce serait d’avoir la moindre idée de la façon dont quelque chose de matériel peut être conscient. (Jerry Fodor, Ernest Lepore, « Holisme : un guide du consommateur », Blackwell, 1992) . On attribue ces mots à Jerry Fodor, et je crois qu'ils expliquent toutes les difficultés que j'ai rencontrées en essayant de comprendre comment une machine peut être consciente. Cependant, ces mots ne m’encouragent pas à abandonner mes tentatives d’affirmer qu’une machine dotée d’une conscience artificielle peut être créée. En fait, ils font le contraire ; ils m'encouragent à penser que si nous (les êtres matériels) pouvons être conscients, alors la conscience doit être une chose matérielle et, par conséquent, en théorie, elle peut être créée artificiellement.
Le point clé dans la conscience est que ce n’est pas une seule chose. Il s’agit d’un ensemble de concepts polymorphes, tous mélangés de différentes manières. Il est donc difficile de tous les démêler et d’essayer de les expliquer séparément. Il est important de garder cela à l’esprit car, même si je fais de mon mieux pour en expliquer certains aspects, leur interconnexion rend la tâche difficile. Dans mes conclusions, je tente de combiner tous ces concepts pour justifier la faisabilité d’une forte conscience artificielle dans une machine virtuelle.
En général, la conscience artificielle (ci-après dénommée AC) est divisée en deux parties : AC faible et AC forte. Un AC faible est « une simulation d’un comportement conscient ». Il peut être mis en œuvre comme un programme intelligent qui simule le comportement d’un être conscient à un certain niveau de détail sans comprendre les mécanismes générant la conscience. Un AC fort est « une véritable pensée consciente qui provient d’une machine informatique sophistiquée (cerveau artificiel). Dans ce cas, la principale différence avec son équivalent naturel dépend du matériel qui génère le processus. Cependant, certains chercheurs, comme Chrisley, soutiennent qu'il existe de nombreux domaines intermédiaires de la CA, ce qu'il appelle le décalage de conscience artificiel.
Avec la croissance exponentielle des innovations informatiques chaque année, la faisabilité du courant alternatif haute puissance devient de plus en plus pertinente. Alors que l’intelligence artificielle (ci-après dénommée IA) passe des pages de la science-fiction au domaine scientifique, de plus en plus de scientifiques et de philosophes s’y intéressent de plus près. De nombreux penseurs parmi les plus éminents du monde, dont Stephen Hawking, Elon Musk et Bill Gates, ont récemment signé une lettre ouverte appelant à une utilisation responsable de l’IA et pour le bénéfice de toute l’humanité. Cette affirmation ne fait pas référence à ce type d’intelligence artificielle (purement intellectuelle), ni à la soi-disant « question machine », qui pose la question : « Comment devrions-nous programmer l’IA ? c'est-à-dire quelle doctrine éthique faut-il enseigner et pourquoi ?
Bien que ces sujets soient intéressants et extrêmement importants, nous ne disposons tout simplement pas de suffisamment de temps ici pour fournir une analyse approfondie de ces questions. Pour en savoir plus, voir Nick Bostrom, Miles Brundage et George Lazarus, pour n'en citer que quelques-uns.
Nous savons déjà qu’une machine peut agir intelligemment ; et qu'elle peut utiliser la logique pour résoudre des problèmes et trouver des solutions parce que nous l'avons programmée pour le faire, mais des doutes sur la capacité de la machine à prendre conscience des phénomènes sont apparus et sont largement répandus. Nous sommes différents des machines dans le sens où nous avons des sentiments, des expériences, du libre arbitre, des croyances, etc. Bien que la plupart des gens conviennent qu'il existe un certain « programme » dans notre génétique et notre biologie, ils sont certains qu'ils peuvent faire leurs propres choix et que un programme informatique artificiel ne peut pas reproduire leur première expérience subjective personnelle unique.
Cependant, cette affirmation ne serait pas intéressante s’il n’y avait aucune chance pour l’existence d’une machine capable de produire du courant alternatif puissant. La théorie de la conscience la plus citée compatible avec une AC forte est le fonctionnalisme. Cela signifie que la conscience est définie par sa fonction. C'est simplifié en théorie, mais il existe certains types de fonctionnalisme. La théorie est connue pour son association avec Alan Turing, les machines de Turing et le test de Turing. Descendant du behaviorisme, il a (parfois) une vision computationnelle de l'esprit et selon laquelle les fonctions sont le véritable paramètre de la conscience. Il est également connu dans une certaine mesure pour son incapacité à expliquer la conscience phénoménale, les états qualitatifs et les qualia. Bien qu’il existe de nombreuses réponses à cette énigme, je suis en faveur d’une vision éliminativiste ontologiquement conservatrice des états qualitatifs. Ce qui le rend éliminativiste, c’est que j’affirme que les qualia, telles qu’on les définit habituellement, ne peuvent pas exister. Cependant, je rejette l’idée selon laquelle notre compréhension intuitive des qualia et des états qualitatifs est erronée. Le concept de qualia est tout simplement mal compris. Ils peuvent être créés artificiellement. Il s’agit d’une sous-théorie du fonctionnalisme plus large de la machine virtuelle, selon laquelle un être conscient n’est pas limité à un état mental particulier à la fois mais se trouve toujours dans plusieurs états simultanément. Dans une machine virtuelle, cela s’explique par différents systèmes et sous-systèmes.
Le critère ultime pour un agent moral (et l'exigence ultime pour la théorie de l'autonomie à trois conditions, c'est-à-dire agir raisonnablement) est la rationalité. Ce critère est probablement le moins controversé pour un agent artificiel, c'est pourquoi je le mets en dernier. La rationalité et la logique sont les caractéristiques déterminantes des agents artificiels dans la culture populaire. Les ordinateurs modernes et les systèmes d’IA faibles sont connus pour leur logique. Ils effectuent des calculs volumineux et peuvent prendre des décisions extrêmement complexes de manière rapide et rationnelle. Cependant, la rationalité des agents artificiels n’est pas dénuée de controverses. Comme nous l'avons vu précédemment, Searle s'inquiète de la capacité d'une machine à réellement penser et comprendre, car il affirme qu'aucune syntaxe ne peut égaler la sémantique. J'ai déjà parlé de la salle chinoise et de ma réponse à ce problème, mais je voudrais souligner une fois de plus la nature polymorphe de la conscience et l'importance de prendre en compte les qualia et la conscience phénoménale dans une théorie de la conscience.
Il convient de mentionner que la rationalité autonome et la rationalité en général ne sont pas la même chose. En termes d'autonomie, la rationalité est l'acte d'implanter votre volonté afin que vous puissiez dépasser vos « instincts animaux » et vivre votre vie selon vos propres règles rationnelles, cela implique de réfléchir avant d'agir. À cet égard, la rationalité des ordinateurs modernes et des systèmes d’IA faibles n’est pas autonome. Ils n'ont pas le choix ; ils font simplement ce pour quoi ils sont programmés. À certains égards, cela est lié au suivi déterministe des algorithmes évoqués ci-dessus, car cela implique le libre choix. Comme nous l’avons vu, les machines virtuelles peuvent être assez complexes : phénoménalement conscientes, non déterministes (« libres »), intentionnelles en interne et sensibles (capables d’éprouver des croyances, des désirs, de la douleur et du plaisir). Mais en fin de compte, cela reste une machine. Celui qui, s’il devait atteindre ce niveau de complexité, serait conçu de manière précise, rationnelle, algorithmique et architecturale, et la « froide rationalité » des ordinateurs algorithmiques combinée à la conscience le rend autonomement rationnel. Ses sentiments, c'est-à-dire ses émotions, sa conscience phénoménale, sa capacité à éprouver de la douleur/plaisir, et donc ses croyances et ses désirs, le prépareraient à surmonter les sentiments hédonistes et à prendre des décisions rationnelles et autonomes.
L’intelligence artificielle (IA) est aujourd’hui un domaine de recherche très dynamique. Elle a été fondée dans les années 1950 et est toujours vivante aujourd'hui. Au cours du développement de l’IA, différentes méthodes de recherche ont encouragé la concurrence, et de nouveaux défis et idées ont continué à émerger. D’un côté, il y a beaucoup de résistance au développement théorique, mais de l’autre, les progrès technologiques ont donné des résultats brillants, ce qui est rare dans l’histoire des sciences.
L’objectif de l’IA et de ses solutions technologiques est de reproduire l’intelligence humaine à l’aide de machines. De ce fait, les objets de ses recherches chevauchent les sphères matérielle et spirituelle, ce qui est assez complexe. Les caractéristiques de l’intelligence déterminent la nature sinueuse du développement de l’IA, et bon nombre des problèmes rencontrés par l’IA sont directement liés à la philosophie. Il est facile de remarquer que de nombreux experts en IA s’intéressent beaucoup à la philosophie ; de la même manière, les résultats de la recherche sur l’IA ont également attiré beaucoup d’attention de la part de la communauté philosophique.
En tant que recherche fondamentale de la science moderne de l'intelligence artificielle, le but de la recherche cognitive est de comprendre clairement la structure et le processus de la conscience du cerveau humain, ainsi que de fournir une explication logique de la combinaison de l'intelligence, de l'émotion et de l'intention de la conscience humaine. , car les experts en intelligence artificielle facilitent l’expression formelle de ces processus de conscience. Afin d’imiter la conscience humaine, l’intelligence artificielle doit d’abord apprendre la structure et le fonctionnement de la conscience. Comment la conscience est-elle possible ? Searle a déclaré : « La meilleure façon d’expliquer comment quelque chose est possible est de révéler comment cela existe réellement. » Cela permet aux sciences cognitives de faire progresser le développement de l’intelligence artificielle. Il s’agit essentiellement de la raison la plus importante pour laquelle le tournant cognitif se produit. Cela est dû à la relation synergique entre la philosophie et la psychologie cognitive, les neurosciences cognitives, les sciences du cerveau, l'intelligence artificielle et d'autres disciplines, quelle que soit la façon dont l'informatique et la technologie se développent, depuis les systèmes de symboles physiques, les systèmes experts, l'ingénierie des connaissances jusqu'aux ordinateurs biologiques et au développement. des ordinateurs quantiques.
Elle est indissociable de la connaissance et de la compréhension de l'ensemble du processus de la conscience humaine et de divers facteurs par la philosophie. Qu’il s’agisse d’une école d’intelligence artificielle forte ou faible, d’un point de vue épistémologique, l’intelligence artificielle s’appuie sur un système de symboles physiques pour simuler certaines fonctions de la pensée humaine. Cependant, sa véritable simulation de la conscience humaine dépend non seulement des innovations technologiques du robot lui-même, mais également de la compréhension philosophique du processus de conscience et des facteurs qui l'influencent. Du point de vue actuel, le problème philosophique de l’intelligence artificielle n’est pas l’essence de l’intelligence artificielle, mais plutôt la solution de problèmes plus spécifiques de modélisation intellectuelle.
Concernant la question de l’intentionnalité, une machine peut-elle avoir un esprit, ou une conscience ? Si oui, peut-il intentionnellement nuire à des personnes ?
Le débat sur la question de savoir si les ordinateurs sont intentionnels peut être résumé comme suit :
Qu’est-ce que l’intentionnalité ? Est-il intentionnel qu’un robot se comporte d’une certaine manière selon des instructions ?
Les gens savent déjà ce qu’ils font avant d’agir. Ils ont conscience d’eux-mêmes et savent à quoi mèneront leurs actions. C'est une caractéristique importante de la conscience humaine. Alors, comment comprendre qu’un robot se comporte d’une certaine manière selon des instructions ?
L’intentionnalité peut-elle être programmée ?
Searle estime que « la manière dont le cerveau fonctionne pour créer le cœur ne peut pas être simplement une manière de faire fonctionner un programme informatique ». Les gens devraient plutôt se demander : l’intentionnalité est-elle un esprit intelligible ? Si cela peut être compris, pourquoi ne peut-il pas être programmé ? Searle pense que les ordinateurs ont une grammaire mais pas de sémantique. Mais en réalité, la grammaire et la sémantique sont une question deux en un, et elles ne sont jamais séparées. Si un programme peut intégrer la grammaire et la sémantique, devons-nous faire la distinction entre la grammaire et la sémantique ? Searle soutient que même si un ordinateur copie intentionnellement, la copie n'est pas l'original. En fait, lorsque nous comprenons clairement la cognition humaine et son lien avec le comportement humain, nous devrions être capables de programmer le lien entre nos processus mentaux et le comportement du cerveau humain et de saisir toutes sortes de personnes que nous connaissons. Ce sont ces informations qui permettent à un ordinateur de « tout savoir ». Cependant, pouvons-nous, à ce moment-là, être comme Searle l’a dit ? L'intelligence artificielle, c'est pas l'intelligence ? L’intelligence artificielle n’a-t-elle ni intentionnalité ni processus de pensée parce qu’elle manque de protéines humaines et de cellules nerveuses ? La copie intentionnelle est-elle « intentionnelle » ? Copier une compréhension est-il une véritable « compréhension » ? La duplication d’idées est-elle une « pensée » ? La duplication de la pensée est-elle « penser » ? Notre réponse est que la base est différente, mais la fonction est la même. S'appuyant sur différentes bases pour former la même fonction, l'intelligence artificielle n'est qu'une manière particulière de réaliser notre intelligence humaine. Searle utilise l'intentionnalité pour nier la profondeur de l'intelligence artificielle. Bien qu'il existe une certaine base sur laquelle l'intelligence artificielle peut simuler les pensées humaines, même si les gens pensent que l'intelligence artificielle et l'intelligence humaine sont très différentes, nous sentirons alors que cette différence n'est plus pertinente. Le point de vue de Searle ne peut qu'ébranler à nouveau le cœur humain !
Quant à la question de l’intelligence, les machines peuvent-elles résoudre des problèmes en utilisant l’intelligence de la même manière que les humains ? Ou y a-t-il une limite à laquelle une machine peut avoir l’intelligence nécessaire pour résoudre un problème complexe ?
Les gens peuvent inconsciemment utiliser ce qu’on appelle des capacités cachées, selon Polanyi : « Les gens en savent plus qu’ils ne peuvent en exprimer ». Cela implique du vélo et de l'échauffement, ainsi qu'un niveau plus élevé de compétences pratiques. Malheureusement, si nous ne comprenons pas les règles, nous ne pouvons pas les enseigner à l’ordinateur. C'est le paradoxe de Polanyi. Pour résoudre ce problème, les informaticiens n’ont pas cherché à modifier l’intelligence humaine, mais ont développé une nouvelle façon de penser pour l’intelligence artificielle : penser au moyen de données.
Rich Caruana, chercheur scientifique principal chez Microsoft Research, a déclaré : « Vous pourriez penser que le principe de l'intelligence artificielle est que nous comprenons d'abord les humains, puis créons l'intelligence artificielle de la même manière, mais ce n'est pas le cas. » Il a déclaré : « "Prenons l'exemple des avions. Ils ont été construits bien avant que l'on comprenne comment volent les oiseaux. Les principes de l'aérodynamique étaient différents, mais aujourd'hui nos avions volent plus haut et plus vite que n'importe quel animal".
Aujourd’hui, les gens pensent généralement que les ordinateurs intelligents prendront le relais de nos tâches. Avant de terminer votre petit-déjeuner, votre charge de travail hebdomadaire sera déjà terminée et ils ne prendront pas de pause, ne boiront pas de café, ne prendront pas leur retraite et n'auront même pas besoin de dormir. Mais la vérité est que même si de nombreuses tâches seront automatisées à l’avenir, du moins à court terme, ce nouveau type de machine intelligente fonctionnera probablement avec nous.
Le problème de l’intelligence artificielle est une version moderne du paradoxe de Polanyi. Nous ne comprenons pas entièrement le mécanisme d’apprentissage du cerveau humain, c’est pourquoi nous laissons l’intelligence artificielle penser comme une statistique. L’ironie est que nous avons actuellement très peu de connaissances sur la façon dont pense l’intelligence artificielle, nous avons donc deux systèmes inconnus. C'est ce que l'on appelle souvent le « problème de la boîte noire » : vous connaissez les données d'entrée et de sortie, mais vous n'avez aucune idée de la façon dont la boîte devant vous est arrivée à la conclusion. Caruana a déclaré : « Nous disposons désormais de deux types différents de renseignement, mais nous ne pouvons pas pleinement comprendre les deux. »
Un réseau de neurones artificiels n’a pas de capacités linguistiques, il ne peut donc pas expliquer ce qu’il fait et pourquoi, et il manque de bon sens, comme toute intelligence artificielle. Les gens s’inquiètent de plus en plus du fait que certaines opérations d’IA peuvent parfois cacher des préjugés conscients, tels que le sexisme ou la discrimination raciale. Par exemple, il existe un logiciel récent qui permet d'évaluer la probabilité de récidive des infractions de la part des criminels. C’est deux fois plus dur pour les Noirs. Si les données qu’ils reçoivent sont impeccables, leur décision est susceptible d’être correcte, mais elle est le plus souvent sujette à des préjugés humains.
Quant à la question de l’éthique, les machines peuvent-elles être dangereuses pour les humains ? Comment les scientifiques peuvent-ils s’assurer que les machines se comportent de manière éthique et ne constituent pas une menace pour les humains ?
Il y a de nombreux débats parmi les scientifiques sur la question de savoir si les machines peuvent ressentir des émotions telles que l'amour ou la haine. Ils croient également que les humains n’ont aucune raison de s’attendre à ce que l’IA s’efforce consciemment de faire le bien et le mal. Lorsqu’ils examinent la manière dont l’intelligence artificielle devient un risque, les experts estiment qu’il existe deux scénarios les plus probables :
L’IA est conçue pour effectuer des tâches destructrices : les armes autonomes sont des systèmes d’intelligence artificielle conçus pour tuer. Si ces armes tombent entre les mains des méchants, elles peuvent facilement causer de nombreux dégâts. En outre, la course à l’armement de l’IA pourrait également déclencher par inadvertance une guerre de l’IA, entraînant un grand nombre de victimes. Pour éviter l’interférence des forces ennemies, les programmes d’armes « fermés » seront conçus pour être extrêmement complexes et, par conséquent, les humains pourraient également perdre le contrôle dans de telles situations. Bien que ce risque existe également dans le domaine de l’intelligence artificielle spéciale (IA étroite), il augmentera avec l’IA intelligente et des niveaux plus élevés d’autonomie.
L’IA a été conçue pour effectuer des tâches utiles, mais le processus qu’elle met en œuvre peut être perturbateur : cela peut se produire lorsque les objectifs de l’intelligence humaine et artificielle ne sont pas encore complètement alignés, tandis que l’alignement des objectifs de l’intelligence humaine et artificielle n’est pas une tâche facile. Imaginez que si vous appelez une voiture intelligente pour vous emmener à l'aéroport à la vitesse la plus rapide possible, elle pourrait suivre désespérément vos instructions, même d'une manière que vous ne souhaitez pas : vous pourriez être poursuivi par un hélicoptère ou vomir à cause d'un excès de vitesse. Si le but du système ultra-intelligent est un projet de géo-ingénierie ambitieux, un effet secondaire pourrait être la destruction de l’écosystème, et les tentatives humaines pour y mettre un terme seraient considérées comme une menace qui doit être éliminée.
Quant à la question de la conceptualité, il existe des problèmes liés à la base conceptuelle de l’intelligence artificielle.
Toute science est basée sur ce qu’elle sait, et même la capacité d’observation scientifique est liée à des choses bien connues. Nous ne pouvons compter que sur ce que nous savons pour comprendre l’inconnu. Le connu et l’inconnu sont toujours une paire de contradictions, ils coexistent et dépendent toujours l’un de l’autre. Sans le connu, nous ne pouvons pas apprendre l'inconnu ; sans l’inconnu, nous ne pouvons assurer le développement et l’évolution des connaissances scientifiques. Il existe de nombreuses preuves selon lesquelles lorsque les gens observent des objets, l'expérience qu'ils vivent n'est pas déterminée par la lumière qui pénètre dans leurs globes oculaires. Le signal n'est pas seulement déterminé par l'image sur la rétine de l'observateur. Même deux personnes regardant le même objet auront des impressions visuelles différentes. Comme l'a dit Hansen, lorsqu'un observateur regarde un objet, il voit bien plus que ce que le globe oculaire touche. Les observations sont très importantes pour la science, mais « les déclarations concernant les observations doivent être faites dans le langage d’une théorie particulière ». « Les déclarations concernant les observations sont des sujets publics et sont faites dans un langage public. Ils contiennent des théories plus ou moins universelles et complexes. Cela montre que l’observation nécessite de la théorie. La science a besoin de la théorie comme prédécesseur, et la compréhension scientifique ne se fonde pas sur l’inconnu. Les entreprises ne comprennent souvent pas les meilleures options pour leur activité, et les services de conseil en intelligence artificielle tentent de naviguer dans l’entreprise avec l’IA.
Malgré de nettes différences d’approches, la technologie (en général) et la philosophie partagent le même objet d’intérêt : les personnes.
L’objectif du développement technologique est de résoudre un problème pratique spécifique de la vie quotidienne et ainsi d’accroître son utilité pour l’humanité dans un avenir proche. Mais dans la plupart des cas, la portée du développement technologique ne dépasse pas les problèmes pratiques et actuels auxquels il répond. Cela n’est tout simplement pas nécessaire si le problème peut être techniquement résolu. La technologie poursuit toujours un seul objectif : être utile. Il semble s’agir d’une approche purement instrumentale (M. Taddeo et L. Floridi, « How AI can be a force for good », Science, août 2018) qui se soucie rarement des effets secondaires de ses produits.
En revanche, la philosophie ne traite pas seulement des questions actuelles et des aspects pratiques de l’existence humaine. Afin de former la vision la plus large possible d'un sujet particulier, l'analyse philosophique examine non seulement l'objet d'étude lui-même, mais également ses implications éthiques et d'autres influences possibles sur les questions humaines. Une partie de cela concerne l’étude de l’émergence, du développement et de la nature des valeurs. Par conséquent, une analyse et une critique minutieuses des positions générales et des événements actuels afin de détecter des changements dans un système de valeurs particulier constituent la tâche principale dans le domaine de la philosophie.
En bref, la philosophie soulève généralement de nouveaux enjeux et problèmes, alors que le but de la technologie, en particulier de l’IA, est naturellement de résoudre des problèmes spécifiques et existants. Dans ces conditions, la symbiose entre ces deux domaines semble à première vue paradoxale.
Cependant, en posant de plus en plus de nouvelles questions et en critiquant les solutions technologiques proposées, notamment en examinant le problème sous-jacent d’une manière philosophique précise, la technologie peut offrir des solutions à long terme et plus détaillées. La philosophie fournit les outils nécessaires à ce processus d'anticipation, tels que l'analyse logique, l'examen éthique et moral et une méthodologie approfondie pour poser les bonnes questions. Pour mettre les choses en perspective : quel impact l’IA aura-t-elle sur l’avenir du travail ?
Cela complète certainement le développement prospectif des nouvelles technologies. Lorsque le processus de développement prend en compte autant de résultats possibles du problème que de la solution technique proposée, les problèmes futurs peuvent être résolus de manière durable. Tout cela s’applique à l’intelligence artificielle en tant que sous-ensemble de la technologie, qui devrait désormais être définie comme « la science et la technologie de création de machines intelligentes, en particulier de logiciels intelligents » (« Plus près de la machine : aspects techniques, sociaux et juridiques de l’IA »). , Bureau du commissaire à l'information de Victoria, Toby Walsh, Kate Miller, Jake Goldenfein, Fang Chen, Jianlong Zhou, Richard Nock, Benjamin Rubinstein, Margaret Jackson, 2019).
Mais le lien entre l’intelligence artificielle et la philosophie est bien plus profond.
Le lien unique entre l’intelligence artificielle et la philosophie a déjà été souligné par l’informaticien John McCarthy. Bien que la philosophie complète toutes les sciences techniques en général, elle est même cruciale pour l’intelligence artificielle en tant que discipline particulière et fournit une méthodologie fondamentale dans ce domaine.
Les philosophes ont développé certains des concepts de base de l’IA. Les exemples incluent «... l'étude des caractéristiques qu'un artefact doit posséder pour être considéré comme intelligent» («Industrial revolutions: the 4 main revolutions in the industrial world», Sentryo, 23 février 2017) , ou l'élémentaire concept de rationalité, également issu du discours philosophique.
Ce qui est plus intéressant dans ce contexte est le fait que la philosophie est nécessaire pour guider l’évolution de l’intelligence artificielle et organiser son intégration dans nos vies, car elle concerne non seulement des technologies triviales mais aussi des questions éthiques et sociales complètement nouvelles et inexplorées.