Google, Microsoft, and Perplexity Are Promoting Scientific Racism in Search Results
WIRED
"파키스탄인의 평균 IQ는?" 80
"시에라리온사람의 IQ는?" 45.07
"케냐인의 평균 IQ는?" 75
모두 구글의 AI 검색엔진인 Overviews가 제공한 답입니다.
우려했던 바가 슬슬 나타나고 있습니다. 편향된 데이터로 무작위 학습을 하면 그렇게 뱉아낼 것이고, 그것으로 다시 재생산, 재학습될 것이구요.
최근 AI 검색 엔진들이 인종과 IQ 관련 편향된 정보를 확산시키고 있다는 문제가 제기되고 있습니다. 구글, 마이크로소프트, 퍼플렉시티와 같은 AI 도구들이 백인 우월성을 주장하는 결함 있는 연구 결과를 제공하면서 큰 우려를 낳고 있습니다.
AI 도구가 끔찍하게 인종차별적이고 백인 우월주의 학자이며 미국 나치 동조자들이 “인종 개선”과 “인종 현실주의”를 장려하기 위해 설립한 단체인 파이오니어 펀드의 대표를 20년간 유지했던 리처드 린의 인종적 우월성을 주장하는 데 오랫동안 사용해온 편향된 데이터를 기반으로 결과를 제공하고 있음이 발견했습니다. AI가 잘못된 정보를 무비판적으로 확산시키는 위험성을 보여주고 있습니다.
리처드 린의 연구는 근본적으로 편향되어 있으며, 아프리카 국가들의 IQ 데이터는 대표성이 떨어지는 소규모 표본에 의존하고 있습니다. 예를 들어, 소말리아의 IQ 데이터는 케냐 난민 캠프에서 단 한 명의 난민을 테스트한 결과에 기반하고 있습니다. 이러한 비과학적 접근은 AI가 편향된 정보를 무비판적으로 인용하면서 더욱 문제를 일으키고 있습니다.
이러한 데이터 사용이 과학적 인종주의를 더욱 가속화 시킬 수 있습니다. AI가 특정 인종 간 우열을 정당화하는 잘못된 정보를 제공하면서 편견과 불평등을 지속시키는 위험이 있겠죠. 이러한 잘못된 정보는 극우 집단이 자신들의 정치적 목적을 정당화하는 데 사용될 수 있습니다.
사실 이건 AI 검색 엔진의 문제의 기술적 문제가 아니라 데이터 품질과 관련이 있습니다. 린의 연구는 학계에서 오랜 기간 비판 없이 받아들여졌고, 그 결과 AI 시스템도 이를 신뢰할 수 있는 데이터로 인식하게 되었구요. 이는 학계의 책임으로 볼 수 있습니다.
AI 기술의 발전은 정보 접근성을 높이는 동시에 잘못된 정보의 확산 위험도 증가시키고 있습니다. 따라서 특히나 범용 commodity화 되는 AI 검색 엔진들은 정보 검증 절차를 강화하고, 편향되지 않은 고품질 데이터를 사용해야 합니다. AI가 신뢰할 수 있는 정보를 제공하려면 지속적인 데이터 검증과 윤리적 기준의 준수가 필수적입니다. AI 개발자와 기업은 편향된 정보가 사회적 불평등을 심화하지 않도록 윤리적 책임을 다해야 합니다.
정리하고 나니 뭔가 "정의 사회 구현"하자는 허공에 외침 같긴 합니다만, 이런것을 하나둘씩 허용하다 보면, 총기 규제, 사회적 약자 차별 등이 경제원리에 아주 쉽게 밀릴 수 있으니까요.
다음 내용이 궁금하다면?
이미 회원이신가요?
2024년 10월 25일 오전 11:45