[AI Report] AI 위험 리포지토리의 분류 체계

지난 8월 14일, MIT 퓨처테크와 그 파트너들은 현재까지 수집된 가장 포괄적인 AI 위험 데이터베이스인 AI 위험 리포지토리를 공개했다. 이 데이터베이스의 목표는 AI로 인한 위험을 이해하고 해결하기 위한 공통의 참조 프레임을 만드는 것이다.


[ AI 위험 리포지토리(Risk Repository) ]

  • MIT 퓨처테크의 피터 슬래터리, 닐 톰슨, 알렉산더 사리, 에밀리 그룬디가 퀸즐랜드 대학의 마이클 노텔과 제스 그레이엄, 하모니 인텔리전스의 제임스 다오와 소루시 푸어, MIT CSAIL의 스티븐 캐스퍼, 미래생명연구소 및 KU 루벤의 리스토 우크와 협력하여 발표했다

  • The AI Risk Repository: https://airisk.mit.edu/


[ AI 리포지토리의 사용 방법 및 도메인 분류 체계 ]

  • 7가지 위험 영역/도메인

    • AI 시스템 안전, 장애 및 한계(76%)

    • 사회경제적 및 환경적 피해(73%)

    • 차별 및 독성(71%)

    • 개인정보 보호 및 보안(68%)

    • 악의적 행위자 및 오용(68%)

    • 잘못된 정보(44%)

    • 인간과 컴퓨터의 상호작용(41%)

  • 23개 하위 도메인

    • 부당한 차별 및 허위 진술(63%)

    • 민감한 정보의 입수, 유출 또는 잘못된 추론으로 인한 프라이버시 침해(61%)

    • 역량 또는 견고성 부족(59%)

    • 사이버 공격, 무기 개발 또는 사용, 대량 피해(54%)

    • 인간의 목표 또는 가치와 상충되는 자체 목표 추구(46%)

    • 허위 정보, 감시, 대규모 영향력(41%)

    • 허위 또는 오해의 소지가 있는 정보(39%)

    • 권력 집중과 불공정한 이익 분배(37%)

    • 독성 콘텐츠에 대한 노출(34%)

    • 불평등 증가 및 고용의 질 저하(34%)

    • 사기, 사기 및 표적 조작(34%)

    • AI 시스템 보안 취약성 및 공격(32%)

    • 인간의 노력에 대한 경제적, 문화적 평가 절하(32%)

    • 거버넌스 실패(32%)

    • 환경 피해(32%)

    • 인간의 주체성 및 자율성 상실(27%)

    • 투명성 또는 해석 가능성 부족(27%)

    • 과잉 의존 및 안전하지 않은 사용(24%)

    • 그룹 간 불균등한 성과(20%)

    • 위험한 기능을 가진 AI(20%)

    • 정보 생태계의 오염 및 합의 현실성 상실(12%)

    • 경쟁적 역학 관계(12%)

    • AI 복지 및 권리(2%)


[ 캐주얼 분류 ]

  • AI 위험 리포지토리는 식별된 위험을 도메인 범주에 따라 그룹화할 뿐만 아니라 '캐주얼 요인'에 따라 그룹화하기도 한다.

  • 분류

    • 위험의 원인이 AI인지 사람인지에 따라 '주체',

    • 목표 추구로 인한 의도적 또는 비의도적 결과인지에 따라 '의도'

    • 배포 전 또는 배포 후 발생하는 위험인지에 따라 '시기'


< 마커저커버그의 오픈 소스 AI가 앞으로 나아갈 길 >

  • 의도하지 않은 피해와 의도적인 피해

    • 의도하지 않은 피해

      • AI 시스템을 실행하는 사람이 의도하지 않았음에도 불구하고 AI 시스템이 피해를 입힐 수 있는 경우

      • 의도적인 피해

        • 악의적인 행위자가 해를 끼칠 목적으로 AI 모델을 사용하는 경우

        • 예) 딥페이크를 이용한 거짓정보 생성

  • 해결 방법 = 오픈소스

    • 시스템이 더 투명하고 광범위하게 조사할 수 있는 오픈소스 활용

    • 모델 사용자가 철저한 보안 테스트를 수행하고 실수를 보고하고 수정할 수 있기 때문에 시스템 오류로 인한 의도하지 않은 피해에 대해 더 잘 보호


[ OpenAI vs Google ]

  • OpenAI

    • 총 4개의 위험 식별: www.futuristiclawyer.com/p/openai-is-a-world-leader-in-ai-unsafety

    • GPT-4o가 프레임워크의 4개 위험 범주 중 '사이버 보안', '생물학적 위협', '모델 자율성'의 3개 범주에서 낮은 평가

    • 정치적으로 민감한 주제에 대한 설득력 있는 텍스트를 생성하는 모델의 능력으로 인해 네 번째 범주인 '설득'에서는 중간 점수를 받았다고 평가

  • Google

    • AI 위험 분류와 관련하여 가장 많이 인용된 상위 20개 논문 중 5개가 모두 AI 위험 리포지토리에 리소스로 포함

    • 구글 딥마인드는 최근 274페이지에 달하는 또 다른 보고서인 '고급 AI 비서의 윤리(2024)' 발표: Google's The Ethics of Advanced AI Assistants (2024): https://storage.googleapis.com/deepmind-media/DeepMind.com/Blog/ethics-of-advanced-ai-assistants/the-ethics-of-advanced-ai-assistants-2024-i.pdf


  • source: https://www.linkedin.com/pulse/what-actual-risks-ai-michael-spencer-exswc/

What are the Actual Risks of AI?

www.linkedin.com

What are the Actual Risks of AI?

다음 내용이 궁금하다면?

또는

이미 회원이신가요?

2024년 8월 27일 오전 9:21

댓글 0