Intelligence artificielle : 38 To de données de clients Microsoft dans la nature

Alexandre Boero
Chargé de l'actualité de Clubic
19 septembre 2023 à 15h10
7
© Lukassek / Shutterstock.com
© Lukassek / Shutterstock.com

Des chercheurs de Microsoft AI ont accidentellement exposé 38 To de données sensibles, comprenant des milliers de messages internes. Une erreur qui était pourtant totalement évitable.

Un incident majeur de sécurité a secoué la communauté de la recherche en intelligence artificielle. Des spécialistes en cybersécurité de Wiz Research révèlent que des chercheurs de Microsoft AI ont accidentellement exposé pas moins de 38 To de donnée critiques, dans lesquels on retrouve 30 000 messages internes de Microsoft Teams. L'erreur provient du partage, pas très subtil, d'un ensemble de données d'entraînement en open source sur la plateforme GitHub.

Un futur IA gate signé Microsoft ?

L'équipe de recherche en intelligence artificielle de Microsoft a, via ce partage, exposé la gigantesque masse de données internes, en ayant mal configuré un jeton SAS (une fonctionnalité de Microsoft Azure), qui a exposé bien plus d'informations que prévu. Les données sensibles comprenaient des mots de passe, des clés privées et même des sauvegardes d'ordinateurs personnels des employés de l'entreprise.

Les chercheurs avaient utilisé des jetons SAS pour partager les données, mais au lieu de limiter l'accès à des fichiers bien spécifiques comme on peut le faire sur Teams ou Office, le lien a été configuré pour partager l'intégralité du compte de stockage, exposant ces dizaines de téraoctets de fichiers privés.

Et il y a pire : le jeton avait été configuré de façon à offrir une autorisation totale, ce qui donne la possibilité aux attaquants de supprimer ou d'écraser des fichiers. Ce n'est en tout cas pas la première fois que des données issues de Microsoft ont fuité après avoir été publiées sur GitHub.

© Zero Day Initiative
© Zero Day Initiative

Limiter l'autorisation, un impératif qui ne s'applique pas toujours

L'incident souligne les défis croissants en matière de sécurité auxquels sont confrontées les organisations travaillant avec de vastes quantités de données de formation en intelligence artificielle. Les data scientists et les ingénieurs doivent mettre en place des contrôles et des protections de sécurité robustes pour faire face à ces risques.

Partager ses recherches avec la communauté peut être une bonne chose, quand les mesures adéquates sont prises. Pour éviter de tels incidents, il est ainsi recommandé de strictement limiter l'utilisation de jetons SAS, d'opter pour des stratégies d'accès stockées pour le partage externe, et de créer des comptes de stockage dédiés. La surveillance de l'utilisation des jetons SAS demeure, qui plus est, essentielle pour détecter tout accès non autorisé.

Source : Wiz Research

Alexandre Boero

Chargé de l'actualité de Clubic

Chargé de l'actualité de Clubic

Journaliste, chargé de l'actualité de Clubic. Reporter, vidéaste, animateur et même imitateur-chanteur, j'ai écrit mon premier article en 6ème. J'ai fait de cette vocation mon métier (diplômé de l'EJC...

Lire d'autres articles

Journaliste, chargé de l'actualité de Clubic. Reporter, vidéaste, animateur et même imitateur-chanteur, j'ai écrit mon premier article en 6ème. J'ai fait de cette vocation mon métier (diplômé de l'EJCAM, école reconnue par la profession), pour écrire, interviewer, filmer, monter et produire du contenu écrit, audio ou vidéo au quotidien. Quelques atomes crochus avec la Tech, certes, mais aussi avec l'univers des médias, du sport et du voyage. Outre le journalisme, la production vidéo et l'animation, je possède une chaîne YouTube (à mon nom) qui devrait piquer votre curiosité si vous aimez les belles balades à travers le monde, les nouvelles technologies et la musique :)

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (7)

SPH
Et… c’est grave docteur ?
PEPSIMAX
Ca dépend…de ce qu’il y a dedans.
Prot
Quand c’est un employé lambda qui a cliquer sur une pièce jointe piégé, on parle de licenciement, formation , incompétence, ignorance, code du travail etc… et là c’est quoi l’excuse ?
Feunoir
Oui c’est super grave :<br /> – Car comme l’indique le titre c’est des données clients de microsoft<br /> – Mais en fait comme l’indique l’article c’est que le contenu de pc et d’échange de message d’employés de Microsoft<br /> – Mais comme l’indique une source, personne l’a vu "The good news is that the database was locked before any hackers could get to it. " Microsoft AI researchers leaked 38TB worth of private company data | TechRadar
dfinit
Ce n’est malheureusement qu’une petite entreprise, qui fait au mieux avec ses peu de ressources. Parfois on peut tout simplement pas se payer plus de ressources humaines et matérielles.
Core-ias
Que 38 To. <br /> Moi qui pensais que l’I.A. permettait de remplacer le player 2 avec qui on pouvait avoir une interaction vocale «&nbsp;naturelle&nbsp;».<br /> Oups, boulette.
Belgarath
Ils sont tranquilles, les hackers, plus besoin de se donner la peine d’essayer de pénétrer quoique ce soit, ils n’ont qu’à attendre qu’ils fassent des conneries.
Core-ias
La piraterie c’est pas bien.<br /> Un contributeur pour les débits et quantités partagés de cette activité ?
Voir tous les messages sur le forum
Haut de page

Sur le même sujet