Microsoft a admis sur son blog ce 18 septembre avoir exposé une base de 38 téraoctets de données, comprenant des clés privées, des mots de passe ainsi que les messages internes sur Microsoft Teams. La fuite a été découverte par des chercheurs de la startup en cybersécurité Wiz sur la plateforme de développement GitHub. Microsoft y partage régulièrement ses recherches sur l’intelligence artificielle, autorisant les experts à télécharger des fichiers depuis un lien. Or, la dernière URL accordait des autorisations sur l’ensemble du compte de stockage, permettant ainsi de naviguer sur une base de données bien plus conséquente et confidentielle. L’accès a été donné par erreur par un employé au moment de la publication du lien, il y a près de trois ans maintenant.
Avec U-Cyber 360°, la société française Mailinblack vous permet de protéger votre organisation et d’éduquer vos collaborateurs à la cybersécurité.
Du gestionnaire de mots de passe à la sécurisation des e-mails en passant par la formation continue ou les simulations d’attaques, cette solution regroupe tous les outils pour prévenir les risques cyber.
Wiz a déclaré avoir partagé ses conclusions avec Microsoft le 22 juin. Le géant de la tech a révoqué l’accès deux jours plus tard, le 24 juin. Le groupe a déclaré avoir terminé son enquête sur l’impact organisationnel potentiel le 16 août.
Un danger autour de la divulgation des recherches sur l’IA
Il est impossible de savoir qui a pu consulter ces données auparavant. « Alors que les data scientists et les ingénieurs s’efforcent de produire de nouvelles solutions d’IA, les quantités massives de données qu’ils traitent nécessitent des contrôles et des mesures de sécurité supplémentaires », a déclaré Ami Luttwak, cofondateur et directeur technique de Wiz, au média américain TechCrunch.
« De nombreuses équipes de développement doivent manipuler d’énormes quantités d’informations. Les partages avec leurs pairs ou les collaborations sur des projets open source publics sont de plus en plus difficiles à surveiller et des cas comme celui de Microsoft sont à éviter », ajoute-t-il. OpenAI, la société à l’origine de ChatGPT a déclaré vouloir limiter la publication de ses recherches pour éviter un détournement malveillant de l’IA.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Abonnez-vous gratuitement à Artificielles, notre newsletter sur l’IA, conçue par des IA, vérifiée par Numerama !