Policy Brief | Foundation Models and Copyright Questions
Stanford Institute for Human-Centered Artificial Intelligence
커리어리 친구들, LLM을 만들 때 파운데이션 모델은 종종 저작권이 있는 대량의 자료에 대해 학습됩니다. 이러한 모델의 저작권 영향을 둘러싼 긴급성과 불확실성을 강조하고 법적 및 기술적 완화 조치를 제안합니다
🕹️ 광범위한 작업을 위해 광범위한 데이터에 대해 훈련된 AI 모델인 파운데이션 모델은 종종 대량의 저작권이 있는 자료에 대해 훈련됩니다. 이러한 모델을 배포하는 것은 저작권과 관련된 법적, 윤리적 위험을 초래할 수 있습니다.
🕹️ 미국의 공정 사용 원칙에 대한 우리의 검토는 저작권이 있는 자료에 비해 충분히 "변형적이지 않은" 콘텐츠를 생성할 수 있기 때문에 공정 사용이 보장되지 않는다고 결론지었습니다. 그러나, 여전히 진화하는 판례법 속에서, 저작권 침해 위험의 범위와 공정 사용 방어의 효능은 여전히 불확실합니다.
🕹️ 저작권 위험을 완화하기 위해, 정책 입안자들은 AI 훈련 데이터에 적용되는 공정 사용 원칙을 명확히 하는 동시에 기초 모델을 공정 사용 표준과 일치시키는 선의의 기술 완화 전략을 장려하는 것을 고려해야 합니다. 이러한 전략은 저작권 침해의 도덕적, 윤리적, 법적 피해를 최소화하면서 파운데이션 모델의 이점을 극대화할 수 있습니다.
🕹️ 동시에, 정책 입안자들은 예술가, 작가, 제작자가 AI 도구의 도움을 받아 작업을 하는 사람들과 AI를 사용하지 않는 사람들 모두에게 공정한 보상과 신용을 받을 수 있도록 다른 정책 메커니즘을 조사해야 합니다.
https://hai.stanford.edu/policy-brief-foundation-models-and-copyright-questions?utm_source=linkedin&utm_medium=social&utm_content=Stanford%20HAI_linkedin_HAI_202311021004_sf183362044&utm_campaign=&sf183362044=1
다음 내용이 궁금하다면?
이미 회원이신가요?
2023년 11월 4일 오전 1:47
어제 출시된 따끈따끈한 ChatGPT Codex를 실제 프로젝트 레포에 써 보았습니다.
테스트가 있으면 스스로 테스트도 실행하고, 만든거 스스로 실행해보면서 버그도 수정하고 하는게 기특하긴 합니다.
간밤에 또 빅 AI 업데이트가 있었군요. Claude 4 Opus, Sonnet 패밀리가 발표되었습니다.
성능이나 다양한 능력이 향상되었고, 트렌드에 맞게(?) 소프트웨어 개발 성능이 또 크게 올랐습니다.