paint-brush
L’IA n’est pas le problème, la Big Tech l’estby@theantieconomist
956
956

L’IA n’est pas le problème, la Big Tech l’est

En examinant l’histoire des grands géants de la technologie et la mauvaise sécurité de leurs données, quels sont les risques réels de la prolifération de l’IA ? Il semble que cela ait bien plus à voir avec l’utilisation des données par les grandes entreprises qu’avec l’IA elle-même.
featured image - L’IA n’est pas le problème, la Big Tech l’est
The Anti-Economist HackerNoon profile picture


L'intelligence artificielle est-elle aussi effrayante qu'on nous a laissé croire, ou est-ce que ce sont simplement les grands géants de la technologie qui ont des antécédents d'utilisation contraire à l'éthique des données, qui vont continuer à utiliser l'IA de la même manière qu'ils utilisent nos autres données : pour remplir leurs poches autant qu'ils le peuvent.


Même ceux qui ont la compréhension la plus rudimentaire de l’intelligence artificielle comprennent que sa force réside dans sa capacité à comprendre les données, et si vous souhaitez qu’un modèle linguistique ou une IA soit plus intelligent ou formé dans un but spécifique, l’élément clé est les données. C’est précisément là que l’IA et les grandes technologies commencent leur croisement, car les géants de la technologie disposent probablement des plus grandes réserves de données cloud pouvant être utilisées pour former et développer des modèles d’IA.


Depuis 2022, Google , Microsoft et Amazon ont tous investi des milliards et noué des relations solides avec les sociétés de développement d'IA les plus avancées de notre époque, peu de temps après la sortie de la première version de Chat GPT.


Même dans le cadre de tels accords, les employés se retrouvent souvent confrontés à des dilemmes éthiques liés à l’utilisation de l’IA dans les grandes technologies. Dario Amodei a quitté Open AI, apparemment en raison de problèmes de sécurité et d'éthique concernant l'implication de Microsoft. Peu de temps après, il fonde Anthropic, pour se tourner vers l'autre demi-sœur maléfique, gagnant environ $ 1,25 milliard de dollars en investissements d'Amazon et2 milliards de dollars de Google.


Compte tenu du passé (et du présent) turbulent des grandes entreprises technologiques, de l'éthique de la vie privée et de leur soutien massif à l'intelligence artificielle, il est probable à ce stade que l'on s'inquiète du fait que le problème ne réside pas dans le développement de l'IA, mais dans les préoccupations en matière de confidentialité que nous ne sont que trop familiers.


En examinant la relation entre les géants de la technologie, les problèmes de confidentialité, les capacités des modèles linguistiques de l'IA et les réglementations gouvernementales, il est crucial de considérer les risques associés au potentiel élevé de l'IA lorsqu'elle est utilisée par des entités aux intentions malveillantes.



La révolution de l'IA

Les modèles d'apprentissage des langues (LLM) ou intelligence artificielle, comme la plupart des gens le savent, sont une combinaison massive d'un ensemble d'algorithmes qui, ensemble, sont capables d'agir de manière autonome pour créer des résultats basés sur les informations sur lesquelles ils ont été formés.


L’IA n’est pas un outil aussi nouveau que la plupart le pensent ; de nombreux outils d’IA sont utilisés dans notre vie quotidienne. Des cartes dans nos voitures aux publicités sur les réseaux sociaux, en passant par nos recommandations Netflix, tous utilisent des outils d'IA pour connaître notre routine et nos habitudes, et faire des recommandations et des suppositions sur ce avec quoi nous sommes susceptibles de nous engager.


Utilisée correctement, l’intelligence artificielle a le pouvoir de transformer la façon dont nous interagissons avec la technologie dans notre vie quotidienne. Non seulement cela pourrait rendre notre vie plus pratique, mais cela pourrait également transformer l'accessibilité pour ceux qui ne sont pas autrement en mesure d'interagir avec la réalité aussi facilement que la plupart des autres. Les malvoyants, par exemple, pourraient utiliser l'IA pour raconter le monde qui les entoure pour une meilleure navigation.


L’IA est déjà utilisée pour rationaliser de nombreux processus différents, notamment le commerce électronique, les technologies de la santé, la finance, l’agriculture et l’éducation. Faciliter le travail des gens. Être capable d'effectuer les tâches automatisées que nous effectuons déjà en tant qu'humains signifie que nous n'avons pas à consacrer autant de temps à des tâches banales, qui constituent une grande partie du travail de nombreuses personnes, et à nous concentrer sur les domaines où l'ingéniosité humaine est primordiale.


Par exemple, l'IA me permet de décider plus facilement du meilleur itinéraire pour me rendre au travail aujourd'hui, compte tenu des travaux à Broadway et des arrêts de circulation au centre-ville, ce qui signifie que je peux dormir 10 minutes supplémentaires et me préparer un café avant de partir. , ce qui rendra ma journée bien meilleure et me permettra d'être plus productif au travail.


Il est important de se rappeler que, contrairement à d’autres outils qui s’appuient uniquement sur des puces pour contrôler leurs fonctions, l’IA est formée sur de grandes quantités d’informations, qu’elle apprend ensuite et est capable de rappeler lorsque nous lui transmettons certaines invites.


C’est en grande partie là que commence la relation entre le développement de l’IA et les grandes technologies, car Google, Amazon et Microsoft possèdent certaines des plus grandes réserves de données humaines (y compris probablement la vôtre) qu’ils peuvent exploiter et qu’ils exploitent pour former leurs modèles d’IA.


Il est un peu alarmant de constater que les entreprises qui ont prouvé qu'elles étaient les moins dignes de confiance avec nos données sont celles qui mènent la charge pour développer une IA encore plus intelligente.


Inutile de dire que cela semble être une recette pour un désastre. Et c’est nous, les consommateurs, qui avons le plus à perdre.


Le côté obscur de la lune artificielle

Beaucoup d’entre nous dans le monde de la technologie sont prudemment optimistes quant à ce que les outils d’IA générative réservent pour l’avenir et nous continuons de voir une innovation inspirante utilisant la technologie de l’IA à grand potentiel.


Ne vous méprenez pas, l'IA peut être une très bonne chose dans notre monde et est actuellement utilisée pour créer une technologie cruciale pour aider de nombreuses personnes dans leur vie quotidienne, par exemple, mais les préoccupations et les réserves que la plupart des gens ont à propos de l'IA doivent être correctement prises en compte. abordé lors de l’introduction d’une technologie aussi puissante dans notre vie quotidienne.


Aussi centrés sur le profit qu'ils soient, les géants de la Big Tech ont la responsabilité de respecter la confidentialité des données de leurs consommateurs (une responsabilité qu'ils ont continuellement ignoré ) et en particulier en ce qui concerne l'IA entraînée à l'aide de données, il devient extrêmement primordial d'être très conscient du type de données que vous utilisez pour entraîner les modèles linguistiques. Certaines personnes ne souhaitent pas que leurs photos Facebook, leurs histoires Instagram, leur historique de localisation, leurs données financières, etc. soient utilisées pour entraîner un modèle d'IA. De plus, avec des données plus sensibles telles que des données médicales, biométriques, financières et de localisation.


L’IA Hysteria est-elle déplacée ?

Nous avons certainement vu un adoption dans l'hystérie entourant les capacités de l'IA et craignons qu'elle vole des emplois, gagne en sensibilité et finisse par dépasser la race humaine, mais de manière réaliste, ce dont nous devrions avoir peur, c'est que Google utilise nos données contre nous pour maximiser les profits. C’est quelque chose qu’ils font, mais le potentiel d’exploitation de nos données contre nous devient plus sérieux lorsque nous commençons à avoir affaire à une IA qui comprend et enregistre tous les aspects de votre vie et qui est accessible aux mauvaises personnes.


Risques liés à la formation de modèles d'IA sur des données sensibles/personnelles

Il y a déjà eu des incidents où des personnes ont signalé que des données collectées à l'aide d'Amazon Alexa avaient été demandées et fournies aux forces de l'ordre sans mandat, et utilisées contre elles dans le cadre d'une enquête criminelle.


Il y a également eu de nombreux incidents au cours desquels des données personnelles ont été utilisées pour promouvoir des programmes politiques et potentiellement diffuser des informations erronées. Une multitude de violations de données dans lesquelles les données collectées par les grandes entreprises technologiques tombent entre de mauvaises mains, donnant un accès criminel aux informations personnelles de millions de personnes.


L’utilisation de données personnelles pour entraîner des modèles d’IA présente un risque de problèmes potentiels de violation de la vie privée résultant d’un accès non autorisé lors du processus de saisie et d’échange de données. Si elles ne sont pas traitées de manière minutieuse et prudente, au cours du long processus d’utilisation des données pour entraîner les modèles d’IA, elles peuvent être échangées de nombreuses fois, les personnes ayant un accès non réglementé aux données personnelles. Lors du traitement d'informations aussi complexes et en volumes aussi importants, il n'est pas invraisemblable qu'il y ait des violations de données en raison d'un manquement aux mesures de sécurité conduisant à la divulgation non autorisée d'informations sensibles.


L’importance de former l’IA sur un ensemble diversifié de données est due à la probabilité très réelle et déjà expérimentée qu’un modèle d’IA présente des biais et une discrimination en fonction de la formation qu’il a reçue. Prenons par exemple la reconnaissance faciale : un modèle d’IA peut être utilisé pour détecter qui vole dans un magasin donné et assurer la sécurité sur une période de trois ans. Si les personnes qui apparaissent dans ces images de sécurité appartiennent majoritairement à une race particulière, le modèle d’IA peut commencer à prédire que quiconque ne fait pas partie de ce groupe de personnes particulier est plus susceptible de voler. Si les données de formation ne sont pas diversifiées et représentatives, le modèle d’IA peut avoir du mal à généraliser avec précision son apprentissage à une population diversifiée.


Si les modèles d'IA sont formés uniquement sur un ensemble de données démographiques, cela laisse un risque important de biais potentiels dans le modèle linguistique lui-même, basé sur le biais des données. Le problème est ici relativement simple ; Si certains groupes disposent de davantage de données personnelles, comment pouvons-nous éviter les préjugés au sein de l’IA ? Cela peut entraîner des résultats d’exclusion pour les communautés sous-représentées au sein de l’ensemble de données.


Il existe également un manque de consentement et de transparence quant à savoir si les utilisateurs sont informés que leurs données sont collectées pour être utilisées dans la formation de modèles d'IA. De nos jours, alors que nous sommes constamment bombardés d'informations et que nous sommes souvent paralysés dans nos choix, 91% des personnes ne lisent pas les termes et conditions lorsqu'elles s'inscrivent à une application donnée, ce qui soulève la question de savoir si les consommateurs savent réellement exactement à quoi ils s'inscrivent en ce qui concerne leurs droits en matière de données. Cela peut jouer un rôle énorme dans l’érosion de la confiance des utilisateurs, avec études constatant déjà une fiabilité scandaleusement faible, avec 42 % des personnes ayant peu ou maintenant confiance dans les grandes entreprises technologiques.


Le fait que même ces grands géants de la technologie soient susceptibles de subir des cyberattaques entraînant des violations massives de données constitue une menace très réelle. histoire récente l’a largement démontré, et ces risques ne font qu’être accrus avec l’augmentation de l’utilisation et de la transmission de grandes quantités de données, afin de former l’IA. Les géants de la technologie comme Facebook ont un historique tendu avec de telles cyberattaques et fuites de données utilisateur, ce qui laisse le consommateur se demander s'il est sage d'introduire un autre point de vulnérabilité alors que les géants de la technologie ne sont même pas en mesure de gérer ce qui existe déjà. leurs assiettes.


Un autre problème potentiel que nous pourrions rencontrer dans les années à venir avec la prolifération de la technologie de l’IA est la ré-identification des données anonymisées, qui pourraient là encore révéler des informations sensibles susceptibles de mettre les individus en danger.


Pensées finales

Il est tout à fait logique que beaucoup de gens aient de nombreuses réserves sur l'intelligence artificielle et ce qu'elle pourrait apporter à la main-d'œuvre (même si cela ne changerait probablement rien de toute façon), mais je pense que c'est dans notre instinct humain naturel d'être sceptique à l'égard de toute nouveauté. , nous oublions que le problème était peut-être là depuis le début.


Ce n'est pas entièrement la faute du travailleur moyen, ces entreprises multimilliardaires ont probablement déployé des efforts considérables pour s'assurer que nous ne les détestons pas autant que nous le devrions, mais il est quand même assez intéressant de voir les gens diaboliser l'outil qui frappe et non la main qui le manie. Que vous ayez ou non une compréhension de l'IA, vous êtes probablement toujours au courant des échecs de ces géants de la technologie en matière de protection des données. Il ne devrait donc pas être surprenant qu'au cours des cinq prochaines années, nous assistions à une controverse autour de l'utilisation contraire à l'éthique de l'IA. suivez chacun de vos pas et gagnez de l'argent avec cela.



Image principale par Adi Goldstein sur Unsplash