paint-brush
75 % des entreprises interdisent l’utilisation de ChatGPT : que s’est-il passé ?par@georgedrennan
2,232 lectures
2,232 lectures

75 % des entreprises interdisent l’utilisation de ChatGPT : que s’est-il passé ?

par George Drennan4m2023/09/25
Read on Terminal Reader

Trop long; Pour lire

ChatGPT a pris d'assaut le monde depuis sa sortie l'année dernière. Mais une enquête récente a révélé que 75 % des entreprises ont mis en œuvre ou envisagent d'interdire ChatGPT et d'autres applications d'IA générative sur leur lieu de travail. Les entreprises s’inquiètent des risques potentiels en matière de cybersécurité. La première fuite majeure de données ChatG PT s'est produite plus tôt cette année et impliquait le géant de la technologie Samsung.
featured image - 75 % des entreprises interdisent l’utilisation de ChatGPT : que s’est-il passé ?
George Drennan HackerNoon profile picture
0-item

La période de lune de miel ChatGPT est-elle terminée ?


ChatGPT a pris d'assaut le monde depuis sa sortie l'année dernière. Cependant, une enquête récente a révélé que 75% des entreprises ont mis en œuvre ou envisagent d'interdire ChatGPT et d'autres applications d'IA générative sur leur lieu de travail.


Pourquoi les entreprises ont-elles peur de ChatGPT ?


Ce n’est pas qu’ils doutent de ses capacités. Au lieu de cela, ils s’inquiètent des risques potentiels en matière de cybersécurité.


Une préoccupation croissante : les fuites de données et ChatGPT

Les outils d’IA générative sont conçus pour apprendre de chaque interaction. Plus vous leur fournissez de données, plus ils deviennent intelligents. Ça a l’air génial, non ?


Mais il existe une zone grise concernant la destination des données, qui les voit et comment elles sont utilisées.


Ces problèmes de confidentialité ont conduit l'autorité italienne de protection des données bannir temporairement ChatGPT en avril.


Pour les entreprises, le souci est que ChatGPT puisse récupérer les informations soumises par les utilisateurs, en tirer des leçons et potentiellement les laisser échapper lors de futures interactions avec d'autres utilisateurs.


Les directives d'OpenAI pour ChatGPT indiquent que les données des utilisateurs pourraient être examinées et utilisées pour affiner le système. Mais qu’est-ce que cela signifie pour la confidentialité des données ?


La réponse n’est pas claire, et c’est ce qui cause l’anxiété.


Inquiétudes liées aux fuites de données : quel est le risque réel ?

Une étude de Cyberhaven a révélé qu'au 1er juin, 10,8 % des travailleurs utilisaient ChatGPT au travail, dont 8,6 % saisissaient des informations sur l'entreprise. La statistique alarmante est que 4,7 % des travailleurs ont saisi des informations confidentielles dans ChatGPT.


Résultats de l'étude Cyberhaven


Et en raison du fonctionnement de ChatGPT, les mesures de sécurité traditionnelles font défaut. La plupart des produits de sécurité sont conçus pour empêcher le partage ou le téléchargement de fichiers. Mais les utilisateurs de ChatGPT copient et collent du contenu dans leur navigateur.


Désormais, OpenAI a ajouté une option de désinscription. Les utilisateurs peuvent demander que leurs données ne soient pas utilisées à des fins de formation complémentaire.


Mais la désinscription n’est pas le paramètre par défaut. Ainsi, à moins que les utilisateurs n’en soient conscients et ne prennent des mesures proactives, leurs interactions pourraient être utilisées pour entraîner l’IA.


Les inquiétudes ne s'arrêtent pas là.


Même si vous vous désabonnez, vos données transitent toujours par le système. Et tandis qu'OpenAI garantit aux utilisateurs que les données sont gérées de manière responsable, ChatGPT agit comme une boîte noire . On ne sait pas clairement comment les données circulent dans le système une fois ingérées.


Il y a aussi le risque que quelque chose se passe mal.


Le 21 mars 2023, OpenAI a fermé ChatGPT en raison d'un problème qui titrait incorrectement les historiques de discussion avec les noms de différents utilisateurs. Si ces titres contenaient des détails privés ou sensibles, d'autres utilisateurs de ChatGPT auraient pu les voir. Le bug a également exposé les données personnelles de certains abonnés ChatGPT Plus.

L'incident Samsung

La première fuite majeure de données ChatGPT s'est produite plus tôt cette année et impliquait le géant de la technologie Samsung . Selon Bloomberg, un code source interne sensible était fuite accidentelle après qu'un ingénieur l'ait téléchargé sur ChatGPT.


Une fuite comme celle-ci peut avoir de graves conséquences.


Et ce n'était pas seulement Samsung. Amazon , un autre titan de l'industrie technologique, avait ses propres préoccupations. L'entreprise cas identifiés où les réponses de ChatGPT ressemblaient étrangement aux données internes d'Amazon.


Si ChatGPT possède les données exclusives d'Amazon, qu'est-ce qui l'empêche de les divulguer par inadvertance à ses concurrents ?


Manque de réglementation claire

L’évolution et l’adoption rapides des outils d’IA générative ont obligé les organismes de réglementation à rattraper leur retard. Il existe des lignes directrices limitées concernant une utilisation responsable.


Ainsi, s’il y a une violation de données à cause de l’IA, qui est responsable : l’entreprise qui utilise l’outil, les employés ou le fournisseur d’IA ?


Dans OpenAI Conditions d'utilisation , la responsabilité incombe à l'utilisateur :

Conditions d'utilisation d'OpenAI


Cela fait peser un risque sur les entreprises. Sans réglementation claire, ils doivent décider de la meilleure marche à suivre. C’est pourquoi beaucoup hésitent désormais davantage.


Opinions contradictoires des leaders technologiques

Lorsqu’il s’agit de déployer de nouvelles technologies, les entreprises se tournent souvent vers les leaders technologiques. Si un géant de la technologie adopte une nouvelle innovation, cela est souvent considéré comme un feu vert permettant à d’autres entreprises de lui emboîter le pas.


Ainsi, lorsqu’une entreprise aussi influente que Microsoft émet des signaux mitigés concernant une technologie, les répercussions se font sentir dans tous les secteurs.


D’une part, Microsoft a émis des réserves quant à l’utilisation des outils d’IA générative. En janvier, Microsoft a averti ses employés de ne pas partager de « données sensibles » avec ChatGPT.



Mais Microsoft défend également sa propre version de la technologie, Azure ChatGPT. Cette itération promet un environnement plus sûr et plus contrôlé pour les utilisateurs en entreprise.


Cette décision soulève des questions : Azure ChatGPT est-il véritablement immunisé contre les risques signalés par Microsoft dans le paysage plus large de l'IA générative ? Ou s'agit-il d'une manœuvre stratégique visant à garantir que les entreprises restent au sein de l'écosystème de Microsoft ?


L’équilibre de l’adoption de ChatGPT

Lorsqu’elles évaluent une nouvelle technologie, les entreprises sont souvent prises dans un bras de fer entre les avantages potentiels et les pièges potentiels.


Avec ChatGPT, les entreprises semblent adopter une approche attentiste.


À mesure que la technologie et ses réglementations évoluent, l’espoir est qu’une utilisation plus sûre et plus transparente puisse être établie.


Pour l’instant, ChatGPT est idéal pour un peu d’aide et de contenu en matière de codage. Mais je ne lui confierais pas des données exclusives.