커리어리 친구들, 이번 NeurIPS 2020 에서, 인공지능 연구자들은 역전파(backpropagation)에 대해 좀더 빠르고 효율적인 사용 방법을 제안했습니다. 역전파에 대해 간단히 설명하자면, 딥러닝 모델의 가중치와 관련하여 손실 함수(loss function)의 기울기(gradient)를 계산하는 것입니다. 기울기란 머신 러닝 모델을 학습할 때 사용되는 최적화 알고리즘이라고 이해하시면 쉽습니다. 또한 손실 함수는 특정 알고리즘이 주어진 데이터 세트를 얼마나 잘 모델링하는지 평가하는 방법입니다. 그러나 이러한 역전파에는 단점이 두가지 있었는데요, 첫째, 네트워크 레이어를 순차적으로 업데이트 하므로 훈련 프로세스를 병렬화하기 어렵고 훈련 시간이 길어집니다. 둘째, 손실 함수의 지역 최소값(local minima) 에 갇히는 경향이 있습니다. 다시 말해, 수학적으로 모델 학습의 목표는 모델이 예측 능력을 최적화한 손실 함수의 지점인 전역 최소값에 수렴하는 것입니다. 그러나 역적파가 대신 찾는 전역 최소값(최적에 가깝지만 정확하지 않는 점)의 근사치가 종종 있는데, 이것이 모델의 잘못된 예측을 발생할 수 있습니다. 예를 들어, "말"이라고 훈련시킬 때 가끔 엉뚱한 그림이 나오는 경우가 있는데 이를 두고 말합니다. 따라서 이 문제를 해결하기 위해 Direct Feedback alignment 라는 방법으로 네트워크를 통해 역전파에 사용되는 가중치를 순전파(feed forwarding) 사용하는 가중치와 동일하게 랜덤 가중치를 조정(alignment)하게 만들어 줌으로서 잠재적인 훈련 시간과 전력 소비를 수십 배 줄일 수 있다고 주장했습니다. 논문 링크: https://openreview.net/pdf?id=T3RyQtRHebj

At NeurIPS 2020, researchers proposed faster, more efficient alternatives to backpropagation

VentureBeat

At NeurIPS 2020, researchers proposed faster, more efficient alternatives to backpropagation

다음 내용이 궁금하다면?

또는

이미 회원이신가요?

2020년 12월 18일 오전 12:52

댓글 0

    함께 읽은 게시물

    타입 안전한 API 모킹으로 프론트엔드 생산성 높이기

    이번에 우아한형제들 기술 블로그에 "타입 안전한 API 모킹으로 프론트엔드 생산성 높이기"라는 새 글을 발행하게 되었습니다.

    ... 더 보기

    이번 구글 I/O, 구글 여러분들 행사전에 입이 근질근질하셨겠네요. ㅎㅎ


    내용은 다들 소개하셨으니 한줄평하자면, 구글이 처음으로 OpenAI에 비해 반발짝정도 앞서나간 이벤트인 것 같습니다.


    더불어 출시한 모델과 서비스들을 보니.. 역시 AI는 돈빨이며 구글이 돈빨을 제대로 세웠.. 쿨럭..


    [필사노트] 헤르만 헤세, '데미안'

    ... 더 보기

    07화 헤르만 헤세, '데미안'

    Brunch Story

    07화 헤르만 헤세, '데미안'

    조회 650


    이력서에 쓰는 경험

    

    ... 더 보기

    🎯 유튜브에 100번째 코딩 테스트 문제 풀이 영상을 올렸습니다!

    ... 더 보기

    달레의 코딩 테스트

    www.youtube.com

    달레의 코딩 테스트

     • 

    댓글 1 • 저장 27 • 조회 3,893


    나는 가끔 조합형 한글의 아름다움에 대해 생각한다.


    그 아름다움은 단순히 예쁜 글꼴이나 정갈한 종이 위의 자소 배열에서 끝나지 않는다. 진짜 매력은, 정밀한 정보 구조와 이산 수학적 규칙성 속에 숨어 있다.


    ... 더 보기