MIT researchers release a repository of AI risks | TechCrunch
TechCrunch
개인, 회사, 정부가 AI 시스템을 사용하거나, 규제하는 법을 만들 때 고려해야 할 구체적인 리스크에는 무엇이 있을까요? 진짜 인프라에 문제가 생기는 건 당연히 전체 시스템을 마비시키는 실질적인 위협이지만, 시험 점수를 매기거나 이력서를 정리하거나 이민국에서 여행 서류를 확인할 때 사용하는 AI 시스템의 경우 어떤 리스크가 생길 수 있을까요? 우리가 실제로 사용하게 될 엔드포인트지만 구체적으로 생각해본 적은 없죠.
그래서 MIT 연구원들이 AI 업계와 학계 이해관계자에들에게 지침을 제공하기 위해 ‘AI 리스크 레포지토리’를 내놓았습니다. AI 리스크 데이터베이스라고 볼 수 있죠. 그들은 AI 리스크 연구의 중복 및 단절을 조금이나마 해소해줄 거라는 기대로 리포지토리를 만들었다고 하고요. 더불어 그들은 레포지토리가 실제 상황에서도 그렇고, AI 연구의 다음 단계를 진행할 때, AI 시스템의 리스크를 향한 조직적인 대응이 어떤 한계를 지니고 있는지 발견하고 대처하는 데 큰 도움이 될 거라고 봤어요. 예를 들어 모든 사람이 비슷한 중요도를 지닌 다른 리스크는 간과하면서, 한 가지 유형의 리스크에만 집중하는 상황이 생긴다면 이를 알아차리고 해결할 때 도움이 될 것이라는 거예요.
레포지토리는 인과적 요인(예: 의도성), 도메인(예: 각종 차별) 및 하위 도메인(예: 허위 정보 및 사이버 공격) 등 700개 이상의 카테고리로 나뉘었어요. MIT 연구원들에 따르면 어떤 프레임워크는 이번 레포지토리에서 식별한 23개 위험 하위 도메인의 34%만 언급했고, 거의 4분의 1이 20% 미만을 다루었다고 해요. 23개 위험 하위 도메인을 모두 언급한 문서나 개요는 없었고, 가장 포괄적인 것도 70%만 다루었고요. 도큐먼트가 이렇게 단편적이라면 모두가 리스크를 명확히 파악했다고 보기 어렵다는 거죠. 앞으로도 연구원들은 이 레포지토리를 개발해나가서, 모두가 AI 리스크를 같은 관점에서 볼 수 있게 하겠다고 밝혔습니다.
다음 내용이 궁금하다면?
이미 회원이신가요?
2024년 8월 14일 오후 12:21
실
... 더 보기1. 파킨슨의 법칙에 따르면 어떤 일이든 주어진 시간이 모두 소진될 때까지 늘어진다고 한다.
안
... 더 보기