paint-brush
La route complexe de P à NP : la magie de l'espace de solutionpar@damocles
428 lectures
428 lectures

La route complexe de P à NP : la magie de l'espace de solution

par Antică Vlad18m2024/08/10
Read on Terminal Reader

Trop long; Pour lire

Le temps polynomial (P) par rapport au temps non polynomial (NP) est une question qui aborde les racines de complexité sous-jacentes d'espaces de problèmes spécifiques. Par exemple, un problème P est un problème pour lequel le temps de résolution augmente en temps polynomial. Lorsqu'il s'agit de problèmes NP, la complexité du problème est bien plus grande.
featured image - La route complexe de P à NP : la magie de l'espace de solution
Antică Vlad HackerNoon profile picture
0-item

P (temps polynomial) vs NP (temps non polynomial) est une question qui s'attaque aux racines de complexité sous-jacentes d'espaces de problèmes spécifiques. Par exemple, un problème P est un problème pour lequel le temps de résolution augmente en temps polynomial. Nous avons un tableau de nombres : [a, b, c, d, e, f, g], et la tâche consiste à trier ces nombres. La façon dont les algorithmes actuels résolvent ce problème consiste à parcourir chaque nombre un par un, et si le nombre actuel est plus petit que le dernier (dans le cas où nous trions de manière ascendante), le nombre est déplacé d'un espace vers l'arrière. Plus nous ajoutons de nombres au tableau, plus le temps nécessaire pour un tri complet est long. Cette augmentation est cependant progressive et prévisible.


En ce qui concerne les problèmes NP, la complexité du problème est bien plus grande. Par exemple, un tel problème NP est le « problème du voyageur de commerce » (TSP). Ce problème impose qu'une carte avec un certain nombre de villes soit donnée : disons les villes [a, b, c, d, e, f, g]. L'objectif est de trouver le chemin le plus court entre toutes ces villes. Dans ce cas, plus on ajoute de villes, plus le temps nécessaire pour trouver la solution augmente considérablement.


Pour une meilleure compréhension, imaginons que dans le cas d'un problème P, l'augmentation du temps est similaire à une addition où, à chaque nouvelle donnée ajoutée à l'ensemble, le temps augmente en ajoutant la somme des points de données trouvés dans l'ensemble de données au temps actuel. Dans notre problème de tri, par exemple, lorsque nous avons un nombre, le temps nécessaire pour résoudre le problème est de 1 (et non de 0 car une vérification est nécessaire à la fin), et avec le deuxième nombre ajouté, le temps devient 1 + 2 = 3. Le troisième nombre (+3) porte le temps à 6, le quatrième (+4) à 10, et ainsi de suite.


En ce qui concerne les problèmes NP, dans le cas de TSP par exemple, pour chaque ville ajoutée, nous multiplions le nombre de villes ajoutées par le temps requis actuel. Avec une seule ville, le temps est de 1, avec deux villes, le temps devient 1 x 2 = 2, et avec 3 villes, nous obtenons 2 x 3 = 6. La quatrième ville portera le temps à 6 x 4 = 24, et ainsi de suite. Bien sûr, ce n'est pas un scénario d'augmentation de temps valide et réaliste, mais c'est un excellent moyen de visualiser combien de temps supplémentaire est nécessaire à mesure que l'ensemble de données d'un problème NP augmente par rapport à l'ensemble de données d'un problème P.


Maintenant que nous comprenons les deux types de problèmes, la question que nous nous posons est : P est-il égal à NP (ce qui signifie qu'avec les bons outils et algorithmes, nous pourrions résoudre efficacement chaque problème, NP ou P, en un temps polynomial) ou sont-ils différents (ce qui signifie que la complexité est une propriété inhérente à l'espace du problème, et donc, il existe des problèmes que nous ne pourrons jamais résoudre complètement, peu importe le degré d'avancement de nos connaissances et de notre compréhension).


Ceux qui connaissent le problème P-NP suggèrent qu'ils sont fondamentalement différents et qu'il existe des problèmes que nous ne pourrons peut-être jamais résoudre efficacement. Mais alors, à quoi servent notre curiosité et notre compréhension, sinon à briser cette séparation entre les deux types de problèmes.


Dans les parties suivantes, je présenterai mon point de vue et les angles que j'ai trouvés pour aborder ce problème. À la fin de l'article, j'espère avoir pu vous présenter clairement une compréhension holistique de ces deux espaces problématiques étroitement liés.


Partie 1 : La simplicité face à la complexité

Afin de mieux comprendre la nature des problèmes, nous allons parcourir un peu les chemins de la philosophie et nous interroger sur la nature de la simplicité et de la complexité. Après tout, si la complexité est finalement différente de la simplicité, nous pourrions simplement et honnêtement supposer qu'il existe des problèmes (NP) pour lesquels des espaces de solution complexes (c'est-à-dire la superpositionnalité quantique) sont nécessaires pour résoudre le problème dans un temps quelque peu polynomial.


Dans le cas du problème TSP, un espace de solution complexe désignerait un chemin de solution qui prendrait en compte toutes les villes et leurs positions respectives et conserverait toutes ces dernières afin de trouver une égalité raisonnable entre les villes. Mais même si nous prenons en compte tous les poids requis, la ville de départ est aussi importante que la marche que l'algorithme effectue pour trouver l'itinéraire le plus efficace, n'est-ce pas ? Si nous partons de la ville a, alors le chemin le plus efficace prendra une certaine forme ; si nous partons de la ville b, le chemin le plus efficace sera différent.


Ou peut-être que ce raisonnement est erroné. Après tout, le chemin le plus efficace est unique et finalement le plus efficace simplement parce qu’il représente le lien le plus court entre toutes les villes. Nous ne cherchons pas le chemin le plus court de la ville a à la ville b, mais le chemin le plus court qui relie toutes les villes entre elles. Dans cette perspective, nous pourrions visualiser l’itinéraire le plus court, semblable à un état « effondré », où la distance totale entre les villes est la plus courte.


Si nous utilisons des algorithmes de « force brute » qui forment toutes sortes de chemins et les comparent ensuite, tous ces chemins seront le résultat du même raisonnement de « force brute » de l’algorithme, et donc chaque instance de formation du chemin est en fin de compte un raisonnement linéaire. Et si nous devions trouver, par hasard, le chemin le plus court, les aspects « force brute » et « hasard » de l’algorithme n’auraient aucun moyen de savoir si ce chemin est finalement le plus court.


Cette approche semble pouvoir bénéficier des capacités de l’apprentissage automatique, qui est en fin de compte entraîné à faire des approximations. Imaginez que vous entraîniez une IA à l’aide de cartes de villes et du chemin le plus court tracé entre elles. De cette façon, au lieu d’algorithmes de « force brute », nous pourrions passer à des algorithmes de « supposition éclairée » qui se révéleront une augmentation tangible de l’efficacité.


Oh, mais il nous faudrait encore un moyen absolu pour arriver à ce chemin le plus court. Et à l’heure actuelle, il n’existe aucun moyen de savoir avec une précision de 100 % si le chemin qui se trouve devant nous est le plus court. En ce sens, les heuristiques et autres modèles mathématiques visent à fournir une compréhension des fondements logiques qui nous indiqueront le chemin le plus efficace. Pourtant, ces approches sont pour l’instant incomplètes, et nous ne savons même pas si, une fois achevées, elles seraient encore en mesure de nous fournir la réponse la plus précise ou simplement une estimation « basée sur l’éducation brute ».


Partie 2 : Simplification extrême

Je me suis peut-être un peu éloigné du sujet de la simplicité et de la complexité. Ou peut-être que je n’ai pas abordé ces questions d’une manière vraiment philosophique. En fait, je me suis simplement demandé si nous pouvions atteindre un certain niveau de complexité dans notre approche et si nous aurions un « oui » une fois que nous aurions trouvé la bonne solution. Mais comme le chemin le plus court existe sur n’importe quelle carte comportant un nombre quelconque de villes, il doit avoir des valeurs et des détails spécifiques qui le distinguent des autres, n’est-ce pas ?


Ou peut-être que ces détails n'apparaissent qu'après des boucles infinies à travers différents chemins sous la forme de la distance totale parcourue. Mais il est peut-être tout simplement irrationnel de supposer cela. Après tout, le chemin le plus court est le plus court, quel que soit le nombre de fois que nous le parcourons. En effet, plus nous parcourons différentes boucles, plus nous comprenons laquelle est la plus courte et laquelle est la plus grande. Ce raisonnement peut cependant n'être nécessaire que dans les cas où nous voulons différencier des boucles atomiquement petites avec des outils de mesure insuffisamment précis.


Il semblerait logique que le problème ici ne soit pas de trouver la vérité de l’enquête, mais plutôt la capacité des outils que nous utilisons pour la tester. Lorsqu’il s’agit de couper un arbre, nous utilisons une hache. Lorsqu’il s’agit d’écouter de la musique, nous utilisons nos écouteurs. Lorsqu’il s’agit de formaliser et de comprendre les mathématiques, nous utilisons des outils construits de manière logique.


Et c'est peut-être là la beauté inhérente aux mathématiques. Nous prenons quelque chose de simple, nous le fusionnons avec un autre élément simple, et ensemble, ils forment quelque chose de complexe, qui nous permet de nous déplacer en diagonale, par exemple. Ou de dessiner un cercle parfait ou autre. Mais alors, combien d'outils aussi simples peuvent être liés les uns aux autres ? À quel moment pouvons-nous mélanger deux outils complexes ? Et si oui, pouvons-nous obtenir cet outil plus complexe uniquement en fusionnant les deux complexes inférieurs ou également en fusionnant tous les outils simples inférieurs qui les forment ?


Les heuristiques, dans ce sens, sont comme ces outils qui, dans leur interaction, peuvent nous permettre de trouver un moyen de répondre avec une précision de 100 % à la question de savoir si nous avons ou non trouvé le chemin le plus court entre les villes. Dans cette optique, les heuristiques sont comme un démonstrateur de solutions, mais pour trouver cette solution, nous pouvons avoir besoin d’autres approches. En fin de compte, les racines de P vs NP sont si profondément liées à la nature même de la complexité que nous devrions nous demander si nous pourrions parcourir deux (et même plus) chemins distincts dans un seul temps linéaire.


Partie 3 : La nature fractale de la complexité

C’est intéressant d’être ici. Là-bas. Après une pause de trente minutes dans l’écriture, une pause permettait de placer les idées qui allaient suivre dans le meilleur ordre et sur l’échelle la plus compréhensible. Et le fait est que oui, les idées sont plus claires que jamais ; elles se sont même effondrées dans un cycle de fermeture complet. Et puis, ce cycle s’est avéré être un point, une partie brillante de l’ensemble, et il ne brille pas parce qu’il est spécial en quelque sorte par rapport à l’ensemble du système, mais parce qu’il est l’espace actuel, la compréhension actuelle et le lieu dans lequel nous nous trouvons. C’est un lieu dans lequel, lorsque nous regardons vers le haut, nous trouvons à la fois complexité et simplicité. Lorsque nous regardons vers le bas, nous trouvons la même chose. Lorsque nous regardons de côté, ce n’est pas différent.


De cette façon, il est tellement vrai que nous trouvons ce que nous cherchons. Si nous cherchons la nature de NP, l’éternelle complexité, nous la trouvons effectivement, dans sa nature la plus complexe. Nous enlevons également la simplicité dans le processus pour être sûrs de jeter l’échelle après l’avoir gravi. Mais ensuite, si nous cherchons des moyens de réconcilier les deux points de vue, de fusionner P et NP en tant que simples parties d’une compréhension holistique, dans laquelle, pour qu’un problème existe, il nécessite une solution claire, alors nous pouvons comprendre qu’avec suffisamment d’efforts et de dévouement, une solution peut finalement être trouvée. Et quelle que soit l’insaisissabilité de cette solution, il existe toujours le potentiel d’y parvenir de la manière la plus fluide et la plus tangible.


Et maintenant, pour éliminer toute confusion dans les mots, je tiens à dire que je défends le fait que P est finalement égal à NP. Et ce, simplement parce que si nous n'avons pas trouvé la solution, cela ne veut pas dire qu'elle n'est pas là, attendant que nous tombions dessus. Et si vous me traitez d'optimiste, je tiens à dire que je me considère comme réaliste.


Peut-être que j’ai écrit la conclusion avant même de terminer l’article. Mais bon, j’aime ce style. Il donne l’impression d’un style « vivant » où je ne me contente pas de construire idée après idée, tout en gardant l’espoir de m’être exprimé aussi clairement jusqu’à la fin.


La nature des articles scientifiques est que vous placez d'abord votre résumé, comme « P est égal à NP parce que la simplicité et la complexité sont étroitement liées », après quoi vous continuez à exprimer vos points de vue et vos pensées sur pourquoi et comment cela est vrai.


Dans un article, le but est de faire comprendre quelque chose à celui qui le lit ; cela s’apparente à un enseignement. Alors que la recherche scientifique est écrite dans le but que les personnes qui connaissent déjà le sujet donnent leurs réflexions et leurs opinions sur le « raisonnement » présenté, et si quelqu’un détient des connaissances qui peuvent relier tous ces points ensemble et même plus, alors ce « raisonnement » est reformulé, complété logiquement et scientifiquement ancré et devient une « découverte ».


Imaginez que l'on fusionne les deux styles. Quel en serait le résultat ? Ce serait comme une croissance graduelle des idées, dans laquelle les idées surgissent les unes après les autres. L'abstrait perdrait alors son sens, car même l'auteur ne saurait pas où le chemin mène. En ce sens, l'auteur peut avoir une idée vague ou un point de départ qu'il s'est lui-même imposé, comme prouver que P est égal à NP ou que P est différent de NP. Plus tard, dans cette construction d'idées, un petit oubli peut pointer dans une direction complètement différente, et alors, essayer de revenir en arrière sans supprimer le dernier argument ne mènera qu'à la confusion.


C'est comme si je revenais à ma construction initiale avant de recadrer intentionnellement la partie 3 dans la conclusion, que j'ai retenue et que j'ai trouvée belle à placer. Mais comment pourrais-je y revenir ? Je veux dire, en tant que lecteur, vous auriez pu construire idée après idée et essayer de saisir une forme ou une apparence globale. Mais c'est là toute la beauté de tout cela, n'est-ce pas ? Nous pouvons faire des pauses dans notre raisonnement logique, laisser la créativité s'épanouir dans notre potentiel, puis recommencer, neufs et rafraîchis, avec de nouvelles perspectives et des moyens plus efficaces pour arriver à la réponse. Et en ce sens, la partie 3 n'était qu'une pause dans tout cela. Et je vais faire une autre pause maintenant, juste pour faire une petite promenade. Après quoi, nous allons nous attarder sur la partie 4.

Partie 4 : À l'intérieur d'une fractale

Lorsque nous pensons à une fractale, nous imaginons un motif qui se répète et qui possède les mêmes propriétés à toutes les échelles et dimensions. L’ensemble de Mandlebrot est, par exemple, une fractale qui représente quelque chose qui ressemble à une cellule, et lorsque vous zoomez sur cette cellule, vous trouvez des structures similaires à maintes reprises. Eh bien, ces structures cellulaires exactement similaires ne sont pas aussi courantes qu’on pourrait le penser. La fractale est, en fin de compte, si magnifique que vous pouvez voir chaque détail qui résume cette cellule avec une extrême clarté à mesure que vous zoomez de plus en plus.


Certaines parties ressemblent à des brins d'herbe, d'autres à la courbure de la lumière que l'on voit lorsque la lumière passe derrière un trou noir, entre bien d'autres aspects intéressants. Et après avoir zoomé de plus en plus, vous finirez par arriver à la même cellule initiale, réitérée à des échelles atomiquement petites par rapport à la cellule de départ. Et à partir de là, vous pouvez zoomer encore plus.


En fait, une fractale est quelque chose de similaire à une route à partir d’un simple problème P, qui, vu dans toute sa complexité potentielle, devient un problème NP très hallucinant qui semble insoluble simplement en raison de la quantité astrale de puissance de calcul (même si le chemin pour le résoudre est linéaire) nécessaire pour le résoudre. Vous pouvez, par exemple, créer un problème P à partir de « dessiner l’ensemble de Mandlebort avec un zoom de 3000x », et la solution est linéaire. Le programme parcourt simplement l’espace fractal, collecte les données morceau par morceau et les copie sur l’autre feuille. Mais le temps nécessaire pour réaliser le dessin complet peut être tout simplement énorme. Peut-être, à moins que nous donnions au programme suffisamment de mémoire et d’efficacité pour mémoriser tout cela et ensuite le coller avec la même efficacité ou une efficacité encore plus grande.


Maintenant, un problème tel que « Copier l’ensemble de Mandlebrot complètement sur ce papier » serait-il considéré comme un problème NP ? Après tout, en raison de l’infinité du zoom que nous pouvons atteindre, il faudrait un temps infini pour passer le premier pixel, n’est-ce pas ? Mais alors, comment pouvons-nous voir la fractale à n’importe quelle échelle si en dessous se trouve une complexité infinie à dessiner ? Peut-être que l’algorithme qui dessine la fractale crée la première image et continue ensuite à travailler indéfiniment pour atteindre des niveaux de complexité et de profondeur de plus en plus élevés. Et cela vous fait vous demander : que se passerait-il si, à partir d’une certaine profondeur (ou complexité) semi-infinie, nous trouvions une figure différente ? Ou peut-être que nous passerons un point à partir duquel la fractale de Mandlebroth commencera à être représentée d’autres manières, peut-être opposées.


Face à des questions aussi complexes, nous ressentons le besoin de faire une pause. Comme si notre cerveau était surchargé parce qu’il essayait de traiter ces échelles. Mais il ne s’agit pas ici de recherche scientifique ; notre objectif est simplement d’explorer la complexité et l’énormité de tout cela, et non de les traiter. Peut-être est-ce plus facile une fois que vous avez formé des poids relatifs ou trouvé différents types d’infinis que vous pouvez utiliser pour donner un sens à l’échelle des choses.


Par exemple, si je suppose que de l’autre côté de l’infini, l’ensemble de Mandlebrot est vu en miroir, alors il serait logique que l’effet de miroir puisse commencer à se produire à partir d’un zoom (ou d’une profondeur) semi-infini. Mais alors, cette semi-infinité n’est pas réelle. L’infini, au vrai sens du terme, suggère que l’ensemble de Mandlebrot contient tous les états, toutes les formes qui ont jamais existé, peuvent jamais exister et existeront un jour. Mais alors, il y a des limites, n’est-ce pas ? Il est clair que cette fractale n’est qu’un motif. Un motif qui, oui, peut prendre de nombreuses formes, mais qui sera toujours lié à lui-même, à sa propre structure et à ses propres règles. Et dans tous les cas, ce « simple motif » est incroyablement beau et complexe, en soi.

Partie 5 : Complexité

Comme je l’ai déjà dit, dans la construction des idées, nous pouvons arriver à un point où nous sommes tout simplement amenés à conclure le contraire de notre hypothèse de départ. Je veux dire, comment peut-on croire que P est égal à NP et que les problèmes NP n’existent tout simplement pas après toute cette explosion de complexité ? Mais comme je l’ai dit dans le dernier article, lorsque nous exprimons des idées, nous « pointons » simplement vers un certain concept. Et comme élément de base requis, l’énormité de la complexité trouvée dans la fractale devait être fournie comme un « Zénith » potentiel de complexité. Un sommet de compréhension lorsqu’il s’agit de définir à quoi ressemble vraiment l’infini tridimensionnel. Et maintenant que nous avons toute cette infinité autour de nous, où pouvons-nous aller ?


C’est là que nous allons toujours quand nous voulons réfléchir. Nous prenons un point ancien et regardons la toute première itération de la fractale. Toute cette infinité tridimensionnelle se trouve devant nous. Nous pensons que si nous voulons lancer une aiguille et voir où elle atterrit, nous risquons d’être confrontés à un phénomène assez étrange. Plus la pointe de l’aiguille est petite, plus il lui faut de temps pour tomber et plus l’espace au sol s’élargit. Et en même temps, plus le point au sol touché devient « chaotique » ou « moins prévisible ». Mais pourrions-nous, avec suffisamment d’aiguilles infiniment petites, être capables d’obtenir l’image complète de la fractale ? Peu importe l’espace et le nombre d’aiguilles nécessaires ? Après tout, de ce point d’observation, nous pouvons clairement voir les limites, et à moins qu’une auto-similarité parfaite ne soit en jeu, une certaine perte doit se produire après chaque itération.


Mais la complexité va bien au-delà de cette carte. En ce qui concerne la taille des aiguilles, pour chaque taille, nous avons une carte unique qui se forme. Mais alors, les cartes à aiguilles plus petites ne sont-elles pas simplement une représentation plus complexe (et de meilleure qualité) des cartes à aiguilles plus grandes ? En ce sens, la complexité représente une sorte de déploiement d'un espace plus détaillé. Un espace qui contient des voies d'exploration polynomiales, et même au contraire des hypothèses admises, cette expansion de la complexité permet une exploration plus précise et plus efficace que ne le ferait un manque de complexité.


Par exemple, si au lieu de la carte infiniment complexe de la fractale, nous devions tenir une carte moins complexe et que nous voulions atteindre un certain point terrestre qui se trouve sur une carte plus complexe, nous devrions d'abord choisir un point sur la carte moins complexe sur lequel zoomer et révéler le point plus complexe que nous souhaitons atteindre. Et cela bouleverse en effet tout l'espace NP, tout en reconnaissant que le temps polynomial requis pour résoudre des problèmes spécifiques pourrait très bien prendre des milliers d'années, et cela sur une voie polynomiale. Et en toute honnêteté, peut-être la prochaine question est de savoir si l'informatique quantique pourrait contenir une sorte de superpositionnalité capable de réduire le temps de x à x divisé par (le nombre de qubits utilisés).

Partie 6 : Conclusions et réflexions

Avant d’aborder les implications possibles de l’approche quantique, je trouve approprié de présenter la carte des affirmations que j’ai faites jusqu’à présent.


  • P et NP sont identiques, ce qui signifie que tous les problèmes pourraient éventuellement être résolus en temps polynomial une fois que nous aurons trouvé le bon espace de problème et le bon espace de solution

  • Les problèmes NP ressemblent davantage à des problèmes polynomiaux extensifs, où leur espace de solution est si massif et complexe que trouver une solution prendrait beaucoup de temps.

  • La complexité et la simplicité sont étroitement liées et, dans leur interaction, notre perspective et notre niveau de profondeur atteint sont ce qui les voit comme l'une ou l'autre.

  • Les outils complexes que nous réalisons sont utilisés pour résoudre des espaces de problèmes détaillés de manière plus efficace, en utilisant l'interaction

    entre simplicité et complexité à leur avantage


    Et une fois que tout sera dit et fait, lorsque nous entrerons dans le monde de l’informatique quantique, les choses pourraient prendre un tournant radical. Voici quelques pistes d’exploration possibles.


  • Malgré tout ce qui est dit ici, l'informatique quantique pourrait avoir ses propres problèmes NP uniques qui sont intrinsèquement différents de ce que l'informatique classique a à offrir

  • La nature de l'informatique quantique pourrait être à la fois un aspect complémentaire et intimement lié à l'informatique classique, offrant au final des outils dont les problèmes NP quantiques ont besoin pour être résolus de manière polynomiale

  • Ces outils quantiques pourraient fonctionner aux côtés des algorithmes classiques afin de fournir une efficacité toujours plus grande qui promet de contourner l'efficacité maximale des deux paradigmes

  • Les algorithmes de calcul quantique actuels (je ne sais pas comment ils sont construits) pourraient nécessiter des aspects de calcul classique comme règle préalable de fonctionnalité. Dans ce cas, nous devrions cataloguer les perspectives classiques et quantiques en deux types de calcul distincts afin de pouvoir mieux les comprendre et les fusionner.

Partie 7 : Barrière quantique

Étant donné le potentiel énorme que recèle l’énergie quantique, les systèmes qui assurent la cohésion de notre vie privée sont constamment menacés. Les systèmes ZKP (Zero-Knowledge-proof) offrent une échappatoire possible. Après tout, leur base repose sur l’hypothèse que le détenteur de la clé ne donne aucune information sur celle-ci lors du processus de déverrouillage. Dans cette optique, la clé est cachée à la vue de tous, juste sous le nez de ceux qui souhaitent interférer et la voler. Mais en même temps, les fondations sur lesquelles le système est construit et fonctionne sont capables de cacher l’ensemble du système à la vue des étrangers.


Ce serait comme marcher dans le labyrinthe toujours changeant et toujours flou de l'espace informatique, que ce soit avec votre ordinateur classique, quantique ou même quantique-classique, et tout ce que vous voyez autour de vous est un espace en constante évolution pour lequel, si vous voulez lui donner un sens, vous devriez détenir les informations sur la toute première instance de sa création. Pour avoir accès aux éléments de base qui ont démarré et façonné le système depuis sa création.


Et dans une mer de flou et de systèmes, même si vous avez accès aux éléments constitutifs d’un système spécifique, vous ne saurez jamais à quel système l’appliquer, car la mer de systèmes interconnectés est beaucoup trop grande et il y a trop de systèmes qui s’interchangent, prenant la forme les uns des autres à des intervalles de temps spécifiques.


Pour les systèmes eux-mêmes, il serait facile de savoir quelles informations ils devraient accepter et lesquelles non, mais en même temps, une synchronicité extrême serait nécessaire pour que chaque système puisse conserver sa propre perspective unique. Étant donné, cependant, l'infinité des dégradés de couleurs, chaque bloc de construction pourrait avoir son propre début et son propre objectif continu qui pourrait être lié à l'atteinte de l'état de couleur d'un autre système. On pourrait imaginer que cela ressemble au fonctionnement des ondes radio.


Peut-être les éléments chaotiques d'un tel système pourraient-ils donner naissance à une sorte de système inter-ordonné qui, vu dans son ensemble, n'a tout simplement aucun sens. Et pour le déchiffrer, il faudrait deviner les blocs de construction formés par un chiffre, qui contient des centaines ou des milliers de nombres qui changent constamment à l'intérieur de leurs propres limites.


Dans cette optique, plus il y a de systèmes, moins il y a de chances pour un attaquant d'y pénétrer, mais en même temps, plus il y a de systèmes, plus il y a de choix pour un attaquant. Peut-être que l'informatique quantique permettrait de tester une seule clé sur tous les systèmes disponibles en même temps. En générant constamment des clés et en les testant sur l'ensemble des systèmes en même temps.


Mais une fois la clé actuelle trouvée, il faudrait avoir recours à la « toute première » clé pour pouvoir réellement entrer dans le système. Ou mieux encore, en stockant dans le système les 10 premières clés, une clé aléatoire parmi ces dix clés pourrait être requise pour entrer une fois que la clé d’état réelle est devinée.


Partie 8 : Des couches dans des couches dans des couches

Ou des énigmes dans des énigmes dans des énigmes. Une chose est sûre : la complexité extérieure fleurit, s'étendant sur toutes les couches en même temps et à une vitesse polynomiale. Mais alors, le système lui-même doit, à partir d'un moment, devenir si avancé et chaotique que même les systèmes de décryptage extraterrestres avancés ne pourraient pas l'exploiter, n'est-ce pas ?


Lorsque nous observons notre situation actuelle, en considérant cette explosion totale de complexité comme un big bang, ou plus formellement, une singularité, nous reconnaissons également que ces avancées ne constituent que la première étape de tout ce qui nous attend. Nous nous trouvons à un endroit où réfléchir à l’avenir compte plus que jamais pour l’éclaircir. Et oui, cela a toujours compté. Mais aujourd’hui, cela compte plus que jamais, et ce sera le cas pour les siècles à venir. Et peut-être même pour les millenials.


Qui sait ce que nous pourrions trouver ? Mais une chose est sûre : les décisions que nous prendrons aujourd’hui vont orienter l’avenir d’une manière que les générations futures n’ont même pas choisie. Nous devrions donc garder un œil ouvert sur leur point de vue. Dans un passé récent (et même à l’heure actuelle), des gens ont été envoyés à la guerre contre leur gré. Des gens ont été contraints de créer des armes destructrices et même de les tester.


Mais alors, que se passerait-il si nous nous contentions de théoriser sur les armes et créions plutôt les boucliers nécessaires pour nous en défendre ? Pourquoi perdre du temps à essayer de détruire ce que nous n'avons pas encore construit ? Encore une fois, vous pouvez me traiter d'optimiste lorsque je dis que l'univers peut, en fin de compte, être intrinsèquement bon. Mais après tout, l'univers ne nous a pas offert d'autres combats que celui de la faim, qui nous permet finalement de ressentir la beauté et le goût de chaque bouchée. Et c'est particulièrement vrai lorsqu'il s'agit de connaissance.


À mon avis, il est insensé de penser qu’un laser ultra-puissant ou un ensemble de lasers plus petits sont plus efficaces pour défendre notre planète contre une météorite, alors qu’en réalité, il suffit d’effleurer un peu la surface pour trouver le pouvoir d’utiliser les effets de la gravité quantique à notre avantage comme une force propulsive, semblable à celle d’une bombe, mais qui ne répand que l’antigravité autour. Ou peut-être devrions-nous nous concentrer sur une fusée suffisamment puissante pour repousser les météorites par derrière en utilisant des pouvoirs extrêmes. Et en même temps, nous pourrions utiliser la fusée pour soulever des trains entiers et les placer sur la Lune.


Et en fin de compte, n'est-ce pas là la magie de l'espace de solution ? Nous pouvons soit le voir d'un point de vue limité, en partant du principe qu'il existe des choses que nous ne saurons peut-être jamais, soit reconnaître le pouvoir du libre arbitre et son véritable potentiel à façonner des destinées et des cœurs entiers.