Des chercheurs en IA de Microsoft Exposent accidentellement 38 Téraoctets de Données Confidentielles

Microsoft a déclaré lundi qu'il avait pris des mesures pour corriger une gaffe flagrante en matière de sécurité qui avait conduit à l'exposition de 38 téraoctets de données privées. La fuite a été découverte sur le référentiel AI GitHub de l'entreprise et aurait été rendue publique par inadvertance lors de la publication d'un seau de données de formation open source, a déclaré Wiz. Il comprenait également une sauvegarde sur disque des postes de travail de deux anciens employés contenant des secrets

>>Plus