Microsoft vô tình phơi ra 38TB dữ liệu nội bộ, bao gồm cả thông tin riêng tư, mật khẩu và 30.000 tin nhắn nội bộ trên Teams.
Các nhà nghiên cứu trí tuệ nhân tạo của Microsoft đã không cố ý làm lộ hàng chục terabyte dữ liệu nhạy cảm, bao gồm cả thông tin riêng tư và mật khẩu, trong quá trình công bố kho lưu trữ dữ liệu đào tạo nguồn mở trên GitHub.
Theo báo cáo từ
Người dùng truy cập vào kho lưu trữ GitHub, nơi cung cấp mã nguồn mở và các mô hình trí tuệ nhân tạo để nhận dạng hình ảnh, đã được hướng dẫn tải xuống các mô hình từ URL Bộ lưu trữ Azure. Tuy nhiên, Wiz đã phát hiện URL này đã được cấu hình để cấp quyền trên toàn bộ tài khoản lưu trữ, vì nhầm lẫn đã làm lộ thêm dữ liệu riêng tư.
Dữ liệu này bao gồm 38 terabyte thông tin nhạy cảm, bao gồm cả bản sao lưu cá nhân trên máy tính cá nhân của hai nhân viên Microsoft. Ngoài ra, dữ liệu còn chứa thông tin cá nhân nhạy cảm khác như mật khẩu các dịch vụ của Microsoft, Private key và hơn 30.000 tin nhắn nội bộ từ Teams của Microsoft.
Theo Wiz, dữ liệu này đã bị tiết lộ từ năm 2020 và URL đã bị cấu hình sai, cho phép 'toàn quyền điều khiển' thay vì chỉ có quyền 'chỉ đọc'. Điều này có nghĩa là bất kỳ ai biết cách truy cập vào URL đó đều có thể xóa, thay thế hoặc chèn nội dung độc hại vào đó.
Ngày 22 tháng 6, Wiz đã liên hệ và cảnh báo sự cố cho Microsoft. Hai ngày sau đó, Microsoft đã thông báo rút lại mã thông báo SAS. Họ cho biết đã hoàn tất điều tra về các ảnh hưởng và tiềm năng tác động đến tổ chức vào ngày 16 tháng 8.