J'étais conférencier invité à la Semaine nationale de la diplomatie à l'Université Jagellonne le mois dernier.
Il s’avère que la communauté diplomatique est très engagée dans les questions de réglementation, de développement et d’éthique de l’IA.
Nous avons discuté de sujets tels que la diplomatie publique, la cybersécurité et l'IA dans le développement des affaires. C'était cool de partager mes réflexions technologiques avec des passionnés de politique internationale.
Nous avons également essayé de couvrir à la fois les opportunités et les défis que les solutions d’IA pourraient poser à l’avenir. J'ai préparé un petit résumé des principales questions dont nous avons discuté. J'ai beaucoup appris sur le monde diplomatique, plongez-y en profondeur avec moi.
Pourquoi parle-t-on autant de l’IA maintenant ? Le grand moment s’est produit à l’automne 2022 lorsque ChatGPT est sorti. Les gens ont commencé à remarquer davantage l’IA, mais cette technologie existait depuis quelques années. Ce qui manquait, c'était une infrastructure cloud et des serveurs adéquats, ainsi qu'un bon produit commercial à vendre.
L’intelligence artificielle (IA) est généralement classée en deux types : l’IA étroite et l’IA générale. L'IA étroite, répandue sur le marché actuel, excelle dans des tâches spécifiques telles que la traduction linguistique ou la reconnaissance d'images, mais n'a pas la capacité de fonctionner au-delà de sa portée programmée. D’autre part, l’IA générale (ou Intelligence Générale Artificielle, AGI), un concept théorique encore à réaliser, aspire à imiter l’intelligence humaine, démontrant l’adaptabilité et l’apprentissage dans un large éventail de domaines. Le développement de l’AGI a d’importantes implications sociétales, éthiques et réglementaires, suscitant des discussions mondiales sur la manière de gérer son impact potentiel, y compris les questions de confidentialité, de sécurité et de considérations éthiques. Cela dit, jusqu'à ce que quelqu'un développe réellement un système AGI, le sujet reste purement académique.
Actuellement dans le domaine de l’IA, il existe deux principaux types de réseaux neuronaux : les transformateurs et les diffuseurs. Les transformateurs excellent dans le traitement et la compréhension du texte, améliorant considérablement la façon dont les ordinateurs fonctionnent avec les informations écrites. Les diffuseurs, quant à eux, génèrent de manière créative de nouveaux contenus, comme des images ou de la musique, en affinant progressivement les concepts initiaux. Il est important de noter qu’il est peu probable que ces technologies, à elles seules, conduisent à la création d’AGI. La réalisation de l’AGI nécessitera probablement des progrès au-delà de ces architectures actuelles.
Je pense que les technologies liées à l’IA font déjà une percée dans notre industrie, à l’image de la façon dont l’électricité a transformé tous les aspects de nos vies. L’IA a le potentiel d’apporter des changements significatifs dans nos vies personnelles, nos entreprises, nos soins de santé et même nos opérations militaires.
Cependant, l’ampleur et le rythme du développement de l’IA suscitent des inquiétudes quant à ses dangers potentiels s’il n’est pas correctement réglementé. L’IA révolutionne déjà les tâches méticuleuses et répétitives, en les accomplissant mieux que les humains. Au lieu d’être une menace, je pense que cela peut être considéré comme utile pour améliorer l’efficacité et la productivité.
Un changement majeur dans notre civilisation est à venir, et nous ne pouvons pas prédire avec précision l’étendue de son impact sur nos vies. À mesure que l’IA continue de progresser, nous entrons dans une ère de transformation et je suis curieux de voir ce qu’elle apportera.
Certains disent que la sortie actuelle de l’IA textuelle est, au mieux, médiocre. Je pense que cette compétence banale appliquée à grande échelle et sur un coup de tête peut changer le monde.
Même si les outils d’IA ont déjà un impact positif sur la vie des gens, ils ont été utilisés à mauvais escient, entre autres, à des fins de désinformation et de spam. Il y a également eu des problèmes de confidentialité. Cela a incité certains régulateurs à prendre des mesures et à commencer à proposer des lois ciblées. De plus, les lois précédentes sur la protection des données s’appliquent toujours et influencent les modèles d’IA.
Si nous voulions diviser la manière dont le développement de l’IA progresse et quelle attitude est présentée à l’égard de la réglementation de l’IA, nous pouvons citer 3 modèles : celui américain, chinois et européen.
Actuellement, les États-Unis sont le leader sur le marché de l’IA. La perspective américaine se concentre sur la prospérité de l’industrie technologique grâce à des politiques de libre marché pour les startups et les entreprises. Il existe également une préférence pour une influence gouvernementale minimale.
Cependant, avec l’introduction de Chat GPT, il y a eu un changement d’attitude. Les États-Unis tentent désormais d’éviter de consolider trop de pouvoir dans quelques grandes sociétés d’IA.
Malgré ces inquiétudes, il existe toujours une attitude techno-optimiste, supposant que les entreprises s’autoréglementeront (ce qui pourrait être un peu tiré par les cheveux). Tout à l'heure, une nouvelle Déclaration des droits de l'IA, comprenant des conseils sur l'utilisation de l'IA, a été dévoilée, considérée comme la première étape vers un système de réglementation approprié de l'IA.
Le plan chinois de nouvelle génération vise à positionner le pays comme un leader mondial de l'IA, dépassant les États-Unis. L’objectif premier est le développement. Au début, la réglementation n'existait pas, ce qui donnait aux entreprises la liberté de poursuivre leurs initiatives avec un financement et un accès fournis.
Les inquiétudes ont commencé avec le développement rapide de l’IA générative. Le gouvernement a eu peur que l’IA puisse générer du contenu en dehors des limites de la censure.
Il existe désormais des expériences réglementaires pour continuer à soutenir le développement des entreprises tout en garantissant que les avancées s'aligneront sur la vision du parti communiste.
Au sein de l’UE, nous finalisons actuellement la loi sur l’IA, qui inclut la vision anthropocentrique de l’IA en mettant l’accent sur les lois et l’éthique citoyennes. Un dilemme clé est de savoir comment trouver un équilibre. Comment maintenir l’innovation des startups, garantir l’indépendance technologique, mais aussi garantir la sécurité des citoyens et de leurs droits.
Outre les modèles mentionnés, il existe bien sûr aussi d’autres pays/organisations qui tentent de créer des lois indépendantes en leur sein.
Prenons Israël : le directeur général du ministère de la Défense a annoncé son intention de faire d'Israël une superpuissance de l'IA en mettant l'accent sur les applications militaires. Ils ont consacré un budget record au développement de l’IA, en mettant l’accent sur les lois et la recherche concernant les besoins de la défense.
Ou récemment, la France, l’Allemagne et l’Italie se sont mises d’accord sur un cadre réglementaire unifié pour l’IA concernant les entreprises en Europe. Ils ne veulent pas que les sanctions contre les entreprises soient immédiates, mais plutôt se concentrer sur des incitations, puis plus tard, si nécessaire, sur des sanctions en cas de violations graves.
Il n'y a pas si longtemps, nous avons également vu l'Italie bloquer ChatGPT en raison du manque de processus appropriés concernant le traitement des données personnelles et de l'absence de restrictions d'âge.
Une multitude de solutions sont discutées et mises en œuvre. Certains tentent de réglementer des choses qui n'existent pas encore (AGI). Certains suggèrent d’imposer des restrictions qui semblent profiter aux plus gros acteurs en augmentant le coût d’exploitation des systèmes d’IA.
Je regarde l'espace avec un intérêt modéré, car cela peut potentiellement m'affecter. Cela dit, même si la réglementation nuira à l’innovation, il est toujours plus intéressant de consacrer du temps à la technologie elle-même, plutôt qu’aux initiatives qui l’accompagnent.
Le développement de modèles d'apprentissage automatique dépend des données de formation. Lorsque les entreprises parlent affaires, elles passent beaucoup de temps à discuter de la manière de protéger les données et de les transmettre légalement.
D’après ce que j’ai vu, la Chine est dure en matière de sécurité des données. Tout doit être approuvé par les autorités et les règles sont strictes. Pour cette raison, de nombreuses entreprises ne veulent pas y faire des affaires (également pour des raisons politiques).
L'UE vise à conserver les données de ses utilisateurs à l'intérieur de ses propres frontières. La réglementation stipule que seuls les entreprises et les citoyens de l'UE peuvent le traiter. Pour mettre les choses en perspective, cela ressemble beaucoup à ce que la Chine applique.
Les banques et institutions financières ont les règles les plus strictes. Dans de nombreuses conversations commerciales que j'ai eues pour mes projets d'IA, les choses se sont arrêtées lorsque les entreprises ont déclaré qu'elles ne pouvaient pas rendre les données anonymes ou qu'elles n'avaient pas de politiques suffisamment efficaces pour partager les données des utilisateurs en toute sécurité.
Mais cette situation crée également une niche pour les produits fonctionnant sur site. Nous pouvons avoir un produit d'IA qui peut fonctionner dans le centre de données du client, ce qui ouvre de nombreuses possibilités. C'est la voie que j'ai choisie avec Sentimatic.
J'apporte mon point de vue local et un mélange d'opinions que j'ai entendues au cours du débat.
En ce qui concerne les lois de l'UE, la Pologne joue un rôle dans le processus d'établissement, mais simplement parce que nous sommes un État membre, nous sommes donc en quelque sorte « obligés » de le faire. Par exemple, la récente participation à la loi européenne sur l'IA a été un peu décevante : seules 12 personnes de notre pays y ont participé, la moitié provenant d'entreprises privées et le reste directement lié au ministère de la Numérisation.
Les citoyens et les entreprises polonaises ne manifestent pas un grand intérêt pour la réglementation sur l’IA. Notre attitude actuelle est que nous sommes davantage des bénéficiaires que des contributeurs actifs. De plus, la Pologne ne compte pas suffisamment de startups solides en IA. Nous risquons de prendre du retard sur les autres pays européens.
Sur une note plus positive, certaines startups d'IA comme Eleven Labs se portent bien. Nous effectuons beaucoup de recherches sur l’IA, mais en faire quelque chose de commercial est un défi. Il y a de l'argent disponible pour des projets d'IA dans des endroits comme PARP (agence gouvernementale), mais la paperasse requise est énorme, vous devez donc vous demander si vous n'êtes pas prêt à prendre beaucoup de risques bureaucratiques.
Je pense que même si jusqu'à présent nous (comme les ingénieurs polonais) avons principalement travaillé pour des entreprises d'Europe occidentale et des États-Unis, nous avons beaucoup appris. Avec un peu d’optimisme, nous pouvons utiliser cette expérience et cet argent pour déterminer comment construire notre scène d’IA. Alors sûrement, je suis curieux de savoir ce qui s’en vient. Et heureux de contribuer.
Avec le développement rapide de l’IA, il est facile de passer à côté de différentes opportunités à venir. Voici ce à quoi il me semble utile de réfléchir pour tirer le meilleur parti de cette avancée technologique dans le cadre de ce débat :
Assurer le financement :
Explorez les initiatives privées et gouvernementales pour financer vos projets d'IA.
Soyez conscient des conséquences de l’obtention d’un financement. En tant que spécialiste, vous pouvez également amorcer un petit produit.
Être conscient:
Restez informé des nouvelles solutions d’IA, mais évitez de vous laisser emporter par le battage médiatique.
Gardez un œil sur les réglementations gouvernementales qui pourraient avoir un impact sur vos droits et votre entreprise.
À la recherche d'opportunités d'emploi :
Recherchez des rôles émergents dans l’industrie de l’IA et trouvez votre niche.
Utilisez les outils d’IA pour rationaliser les tâches, car les entreprises tentent toujours d’intégrer l’IA.
Penser à la vie privée :
Protégez vos données en appliquant des paramètres de confidentialité dans les applications de chat AI. Payez pour éviter que vos données soient utilisées pour la formation.
Équilibrer la personnalisation et l'automatisation :
Le développement de l’IA est inévitable. Il vaut mieux s'y préparer plutôt que d'éviter le sujet ou de menacer la société d'un éventuel danger des nouvelles technologies. Cette révolution technologique peut être différente des autres, mais les semeurs de peur sont parmi nous depuis le début de l’humanité. Bien sûr, des réglementations sont nécessaires et nous devons protéger les sociétés de l’effondrement provoqué par l’IA, mais les décisions doivent être fondées sur des preuves et non sur la peur.
De mon point de vue personnel, j'espère voir la Pologne devenir plus active dans l'établissement de lois sur l'IA et je surveille de près toute nouvelle réglementation susceptible de m'affecter personnellement et professionnellement.
Je pense que la meilleure chose que nous puissions faire à l’heure actuelle est de nous renseigner et d’essayer de tirer le meilleur parti de tout cela. Il est idiot de laisser passer certaines opportunités et de ne pas utiliser tout le potentiel (génératif) que l’IA a à offrir.
Tes pensées? Plus inquiet ou excité ? Réglementation : BS ou nécessité ?
Abonnez-vous à mon profil en renseignant votre adresse email à gauche, et soyez au courant de mes articles !
N'oubliez pas de me suivre sur Twitter @horosin_ et de vous abonner à la newsletter de mon blog pour plus de conseils et d'informations !
Si vous n'avez pas Twitter, vous pouvez également me suivre sur LinkedIn .
Également publié ici .