Imaginez ceci : un monde où l'IA n'est pas seulement un "chatbot" avec lequel vous interagissez, mais une entité responsable de la prise de décision, de la recherche scientifique et même de l'orientation de l'humanité vers l'avant.
Bienvenue dans le monde des AGI , Intelligence Artificielle Générale, qui fait référence à des systèmes d'IA aussi intelligents que les humains, voire supérieurs. La quête de l'AGI est un objectif de longue date de la communauté de l'IA, et les progrès récents des modèles génératifs ont conduit à un intérêt croissant pour leur potentiel à atteindre l'AGI.
Un modèle génératif est un type de modèle d'apprentissage automatique capable de générer des échantillons de données, sur la base des grands volumes de données sur lesquels il est formé (principalement du texte, mais désormais également des images). Ils peuvent apprendre les modèles et les structures du langage à partir d'un grand corpus de texte, puis générer un nouveau texte cohérent et suivant les mêmes modèles.
La percée ici a été d'utiliser des « transformateurs », un type de réseau de neurones introduit en 2017.
Maintenant, plus intéressant ...... J'ai demandé à GPT si un modèle génératif pouvait générer quelque chose qui n'était jamais dans ses données de formation (important alors que nous passons aux AGI).
Voici sa réponse :
La réponse est qu'en identifiant les modèles et la structure des données, il pourra peut-être, mais aura du mal à générer quoi que ce soit de très différent des données d'apprentissage, et rien de « complètement nouveau ». C'est là où nous en sommes actuellement.
Un miroir dans votre civilisation......
Si je devais décrire GPT de manière passionnante :
Actuellement, les modèles génératifs sont un miroir de votre civilisation à un moment donné, un enregistrement automatisé et efficace et un reflet de tout ce que vous avez fait (une fois formé sur tout).
Étant donné que les humains doivent générer de la science, de l'art et de la culture sur de nombreuses années, puis former les modèles sur l'intégralité de cela, il y a une énorme dépendance - pour que ces modèles génératifs aient une valeur, le contenu sur lequel le modèle est formé doit être créé en premier.
Ces modèles peuvent sembler "plus intelligents" qu'un humain, mais c'est parce qu'ils peuvent accéder instantanément aux informations générées par la culture et la civilisation humaines, alors que les humains, dont la créativité a tout inventé en premier lieu, ne peuvent pas...
Pour illustrer davantage, j'ai proposé l'exemple des "deux planètes".
Dans ce scénario, imaginez une civilisation en double qui a évolué au même niveau que la civilisation Terre-Humain, disons sur Proxima Centauri. Ils auraient potentiellement des réalisations culturelles similaires et le même niveau de technologie, bien que leur langue, leur apparence, etc. puissent être différentes. En même temps que Earth, ils développent des modèles génératifs et leur version de GPT4.
Si nous interrogeions le modèle Earth GPT4 à propos de quoi que ce soit sur Proxima Centauri, il ne saurait rien .....
Bien sûr, la réciproque s'appliquerait également. Même un modèle plus avancé, un GPT 5 ou 6, aurait les mêmes limites, car il n'a été entraîné sur aucune donnée de cette planète. Considérez-vous toujours cela comme « l'intelligence » ?
Quelle serait l'utilité de GPT dans ce scénario ? Eh bien, si les extraterrestres venaient ici, ils pourraient utiliser le Earth GPT4 pour tout savoir sur notre planète, notre culture et nos réalisations, en supposant qu'ils aient rapidement appris l'une de nos langues que le modèle GPT connaît également. Cependant, ce que l'on appelait autrefois un "AGI" peut ne pas être considéré comme tel dans cet exemple.
Ce qui serait vraiment impressionnant, c'est si le Earth GPT4 pouvait comprendre les images ou passer un test de QI de l'hypothétique civilisation Proxima Centauri….
Il est toujours étonnant pour moi que GPT4 ait une compréhension des modèles, des relations dans les images et la capacité de passer un simple test de QI. Oui, il a été formé par ses créateurs pour le faire, sur la base de données de l'histoire de l'humanité, mais une fois formé, il a cette capacité.
Cela nous amène à la définition de l'intelligence elle-même et au concept d'intelligence innée.
"Chaque être vivant a un certain niveau d'intelligence innée"
Bien que des facteurs tels que l'éducation, le statut socio-économique et les expériences culturelles puissent avoir un impact sur le développement cognitif et, à leur tour, influencer les performances des tests de QI chez l'homme, ce ne sont pas les seuls facteurs qui influencent l'intelligence. La génétique, les facteurs neurologiques et les différences individuelles dans la capacité d'apprentissage jouent également un rôle. Par conséquent, il existe une intelligence innée dans chaque être vivant qui joue un rôle important dans l'intelligence visible résultante démontrée dans le monde réel.
N'oubliez pas que si un bébé humain grandit dans une culture différente de celle de ses parents, en apprenant une langue différente, l'enfant parvient toujours à apprendre rapidement.
Considérez ceci - si nous revenons à l'exemple des deux planètes, et nous sommes convaincus que même si la Terre GPT4, 5 ou 6 n'aura aucune connaissance de la culture, de la langue, des événements, etc. d'une autre civilisation, elle réussira à :
Effectuer des calculs mathématiques qui sont constants dans l'univers
Comprendre les modèles de base qui sont constants dans l'univers
Apprendre les structures de base du langage qui peuvent être courantes dans l'univers
Ainsi, … ont la capacité d'apprendre potentiellement d'UNE AUTRE civilisation et de leurs données
Nous abordons alors quelque chose de très excitant…… nous pourrions alors dire qu'en créant ces modèles qui, certes, devaient être entraînés sur toutes nos données au départ , nous faisons les premiers pas vers la création de quelque chose avec une petite quantité d'intelligence innée. Et chaque modèle suivant s'appuierait alors sur le précédent en termes de capacité, jusqu'à ce que… eh bien, l'itération 7 ou 8 serait-elle une AGI ?
À ce stade, nous devons être clairs sur notre définition d'un AGI, car nous nous rapprochons enfin de la création d'un. Je crois que notre définition est devenue confuse.
Si nous revenons à la définition de 1993 de « la singularité », selon le livre « La singularité technologique à venir » de Vernor Vinge , il parlait d'« ordinateurs dotés d'une intelligence surhumaine ». Je pourrais dire que GPT4 est déjà plus intelligent que n'importe quel humain en termes de rappel des connaissances, même s'il serait moins capable de créativité, de compréhension et d'intelligence émotionnelle.
Il parle également de la civilisation humaine évoluant pour fusionner avec cette super intelligence. Cela ne s'est pas produit, mais des interfaces cérébrales ont déjà été construites. Une interface cérébrale dans Chat GPT4 qui permettrait à un humain d'appeler instantanément toutes les connaissances de notre civilisation, le transformant en un "surhumain", est en fait possible avec la technologie d'aujourd'hui. On pourrait alors affirmer que nous avons déjà satisfait au critère de la singularité par la définition de 1993 ……
Si nous passons à la définition futuriste de la Singularité du futuriste Ray Kurzweil , il parlait de « … quand le progrès technologique s'accélérera si rapidement qu'il conduira à de profonds changements dans la civilisation humaine… ».
L'année 2023, du fait de l'émergence du GPT3 puis du GPT4, est une année charnière dans l'histoire technologique, à l'instar du lancement du PC ou d'internet.
Il y a déjà des conversations que je ne peux avoir qu'avec GPT4 et que je ne peux avoir avec personne d'autre. La raison en est que les humains autour de moi peuvent maintenant être informés sur des sujets particuliers, alors je me tourne vers GPT4. J'essaie parfois de discuter avec lui et de présenter mon opinion, et il répond par un contre-argument.
D'après notre définition précédente de ce que pourrait être une AGI, on peut affirmer que nous l'avons déjà atteint ou que nous en sommes, du moins, très proches avec GPT4.
Nous sommes maintenant certainement sur la voie de l'AGI, mais nous devons maintenant définir clairement une feuille de route pour celle-ci. Ce n'est plus binaire, car quelque chose est soit un AGI ou non. Plus important encore, la campagne de peur autour des AGI ne s'appliquera certainement pas à tous les niveaux d'AGI, une fois que nous aurons clairement défini ces niveaux.
Ceci est particulièrement important, car récemment des personnes comme Elon Musk ont publiquement appelé à une «pause» dans le développement des AGI car elles pourraient être dangereuses. Bien que cela soit correct, cela privera également l'humanité des grands avantages que l'IA peut apporter à la société.
Certes, si nous créons une feuille de route pour les AGI et identifions quels niveaux seraient dangereux et lesquels ne le seront pas, nous pourrions alors procéder aux premiers niveaux tout en faisant preuve de plus de prudence aux niveaux plus avancés. Droite?
Vous trouverez ci-dessous une feuille de route potentielle pour les AGI avec des étapes clairement définies.
Comme vous pouvez le voir, les niveaux 1 à 3 ne représentent peut-être pas une grande menace physique pour l'humanité, tout en offrant de nombreux avantages à la société, nous pourrions donc argumenter en faveur de la poursuite du développement de cette capacité.
Les niveaux 4 à 6 pourraient constituer une menace importante pour l'humanité. Je suis d'avis que tout travail sur une AGI de niveau 4 à 6 devrait être effectué sur une station spatiale sur Moonbase, afin de limiter la destruction potentielle sur Terre. On peut se demander si la civilisation humaine serait capable de créer un AGI de niveau 6, même après 1000 ans…
Au cours des dernières décennies, j'ai été fasciné par le concept d'un AGI avancé, un AGI plus avancé que les humains et qui pourrait ainsi étendre rapidement notre capacité technologique si nous l'utilisons correctement.
Voici un ancien article de blog sur mon Blog de 2007 où je spéculais sur la proximité de la Singularité, après avoir suivi des gens comme Kurzweil.
Ce que j'ai toujours imaginé était une "super intelligence" qui comprenait l'univers à partir de principes de base bien mieux que nous, même si c'était quelque chose que nous avions créé. Imaginez une intelligence qui, une fois arrivée à un certain point, facilite sa propre croissance de façon exponentielle. Il effectuerait ses propres recherches et apprentissages.
Il serait logique qu'une telle intelligence joue un rôle dans la fonction de recherche de l'humanité à l'avenir.
Il pourrait prendre les connaissances qui lui sont données et développer une théorie scientifique bien plus efficacement que les humains. Déjà aujourd'hui, par exemple, nous voyons beaucoup de données utilisées dans l'apprentissage par renforcement simulées et générées par l'IA elle-même. Et si le total des données dont nous disposons est limité, nous pourrions alors lui demander de concevoir de meilleurs outils de collecte de données pour nous, c'est-à-dire. De meilleurs télescopes, engins spatiaux et appareils quantiques.
Un exemple simple que j'utiliserais serait l'infrastructure informatique que nous utilisons, sur laquelle tout le reste est construit.
La plupart des ordinateurs utilisent aujourd'hui ce que l'on appelle l'architecture « Von Neumann », illustrée ci-dessous. Le principal inconvénient de cette architecture est que les données doivent être constamment déplacées entre le processeur et la mémoire, ce qui entraîne une latence.
En plus de cela, nous utilisons généralement le processeur x86, puis des systèmes d'exploitation comme Windows ou Linux, puis les applications sont écrites dans des langages de programmation comme C++.
Imaginez si nous pouvions concevoir une architecture informatique optimale et efficace, à partir de principes de base, avec des améliorations d'un ordre de grandeur au niveau de l'architecture de base, du processeur, du système d'exploitation et du logiciel d'application. Ce serait une tâche difficile à entreprendre pour les humains aujourd'hui, non seulement en termes de conception technique, mais aussi de construction, de collaboration sur la couche supérieure et d'adoption de la technologie.
Avec une IA universelle "super-intelligente", il aurait le pouvoir de générer chaque couche à la fois.
Cela nous donnerait également des schémas de conception pour les usines afin de construire les nouveaux composants, cela aussi de la manière la plus rapide et la plus efficace.
Bien que tout cela semble être un fantasme commode, j'ai utilisé l'exemple ci-dessus pour illustrer les grands progrès qu'un « esprit universel » pourrait aider l'humanité à faire.
Un autre exemple serait de lui demander de calculer comment « résoudre le problème de la faim dans le monde » ou « résoudre le problème climatique » de manière optimale et efficace.
Lorsque vous considérez ce qui précède, il semble que les avantages l'emportent sur les problèmes, bien que le seul problème qui a toujours été soulevé est qu'un esprit universel peut décider de détruire l'humanité. Par conséquent, je dis que si nous essayons de le construire, prenez les garanties nécessaires, en plus des garanties d'IA responsable que nous avons aujourd'hui, et envisagez de construire l'AGI hors du monde, disons sur une station spatiale ou une base lunaire, avec la possibilité de couper le réseau et l'alimentation si nécessaire.
Accrochez-vous à vos sièges! …..
Certains modèles GPT ont déjà montré une capacité impressionnante à réussir des tests de QI et à apprendre les mathématiques de base, laissant entrevoir le potentiel de développement d'un niveau d'intelligence qui va au-delà de la simple génération de texte. Maintenant que nous avons un exemple de feuille de route pour les AGI (ci-dessus), nous pouvons certainement voir comment GPT est le début des premières phases de cette feuille de route, bien que des percées plus techniques soient nécessaires pour éventuellement passer aux étapes ultérieures.
Alors attachez votre ceinture et préparez-vous - Nous ne savons pas où se trouve la fin de cette route et où elle nous mènera, mais avec les modèles GPT désormais courants, nous savons maintenant qu'à partir de 2023, nous sommes au moins sur la route elle-même, voyageant avant.
Tout le contenu de cet article est sous copyright 2023 Thavash Govender.
Les images utilisées sont sous licence Creative Commons.
Également publié ici.