<MS, AI 연구원들이 실수로 노출한 38TB의 데이터는?>

커리어리 친구들, 마이크로소프트에서 어처구니가 없는 보안 문제가 발생했습니다. 특히, 이번 사건은 이제 더 많은 소프트웨어 엔지니어가 방대한 양의 훈련 데이터를 사용함에 따라 인공지능 기능을 보다 광범위하게 활용하기 시작할 때 기업 조직이 직면하게 되는 새로운 위험의 예이기 때문입니다. 데이터 과학자와 엔지니어가 새로운 AI 솔루션을 프로덕션에 도입하기 위해 경쟁하면서 그들이 처리하는 엄청난 양의 데이터에는 추가적인 보안 검사와 보호 조치가 필요하다는 교훈을 이번에 얻게 되었습니다. 이 사건은 위즈 리서치가 30,000개 이상의 내부 Microsoft Teams 메시지를 포함하여 Microsoft의 AI GitHub 리포지토리에서 데이터 노출 사고를 발견했고, 조사를 해봤더니 모두 잘못 구성된 하나의 SAS 토큰으로 인해 발생했습니다. 특히, Microsoft의 AI 연구 팀은 GitHub에 오픈 소스로 구성된 훈련 데이터 버킷을 게시하는 동안 직원 두 명의 워크스테이션에 대한 디스크 백업을 포함하여 실수로 38TB의 추가 개인 데이터를 노출했습니다. 백업에는 비밀자료, 개인 키, 비밀번호 및 30,000개 이상의 내부 Microsoft Teams 메시지가 포함되어 있었고, 연구원들은 Azure Storage 계정의 데이터를 공유할 수 있는 SAS 토큰이라는 Azure 기능을 사용하여 파일을 공유했습니다. 물론 액세스 수준은 특정 파일로만 제한될 수 있습니다. 그러나 이 경우 링크는 또 다른 38TB의 개인 파일을 포함하여 전체 스토리지 계정을 공유하도록 구성한 것이 문제가 되었습니다. 마이크로소프트 뿐만 아니라 클라우드를 사용하는 기업이라면 일어날 수 있는 사건으로 IT 어드민들은 AI 과학자들에게 유심히 살펴보고 가이드라인을 줄 필요가 있다고 생각합니다. https://www.wiz.io/blog/38-terabytes-of-private-data-accidentally-exposed-by-microsoft-ai-researchers

38TB of data accidentally exposed by Microsoft AI researchers | Wiz Blog

wiz.io

38TB of data accidentally exposed by Microsoft AI researchers | Wiz Blog

다음 내용이 궁금하다면?

또는

이미 회원이신가요?

2023년 9월 21일 오전 12:17

 • 

저장 4조회 2,315

댓글 0

    함께 읽은 게시물

    "2025.02.05."를 실제 날짜로 변환하는 함수들

    F

    ... 더 보기




    리트코드 102. Binary Tree Level Order Traver

    ... 더 보기

    Binary Tree Level Order Traversal | 알고달레

    알고달레

    Binary Tree Level Order Traversal | 알고달레

    개발자의 장애 공유 문화

    ... 더 보기

    개발자의 장애 공유 문화

    K리그 프로그래머

    개발자의 장애 공유 문화

     • 

    저장 25 • 조회 4,667