Hi, there! 8월 27일 ~ 9월 3일 간 나온 AI 주요 포스트와 논문을 추려보았습니다. Distill의 GNN에 대한 상세하고 직관적인 설명은 꼭 한번 보셨으면 합니다! • Huawei 연구원들이 이미지에 단일 객체만 있어야 하는 제약 조건 없이, 레이블 지정되지 않은 거리 풍경 데이터(https://arxiv.org/pdf/2108.12178v1.pdf)를 통해 사전 훈련하는 방법을 효과적으로 제안했습니다. (MoCo-v2와 BYOL 참조) • 인간 인지 발달의 핵심에 도달하려면 AI에게 앵그리 버드(https://arxiv.org/pdf/2108.13696.pdf)를 플레이하도록 가르쳐야 할까요? (최근 기반 모델 Foundation Model 명명법에 관한 Jitendra Malik의 의견(https://youtu.be/dG628PEN1fY?t=14846)도 살펴보세요.) • Google Research는 대화 상태 추적(https://arxiv.org/pdf/2108.13990.pdf)의 경우 마스킹한 스팬 예측이 자기 회귀보다 더 효과적일 수 있음을 발견했습니다. (음, Alexa에서는 어떻게 하고 있는지 모르겠네요...) • 해답보다 질문을 더 많이 야기하는 듯 보이는 CNN과 Vision Transformers 비교, 정리(https://arxiv.org/pdf/2108.08810.pdf)입니다. (다만 ViT가 예외적으로 데이터를 많이 사용하고 있다는 점을 밝혔습니다). • Distill 오랜만이네요. 그래프 신경망을 기초부터 설명하는, 철저히 피어 리뷰를 받고 나온 듯한 블로그 포스트 1번(https://distill.pub/2021/gnn-intro/)과 2번(https://distill.pub/2021/understanding-gnns/)입니다. • Linkedin에서 딥러닝을 사용하여 악의적인 회원의 활동 시퀀스 감지해낸 내용을 테크 블로그에 공개했습니다. 방법론이야 새로울 것이 없지만 비즈니스 문제에 대한 접근과 탐색은 늘 재밌네요. (https://engineering.linkedin.com/blog/2021/using-deep-learning-to-detect-abusive-sequences-of-member-activi) 위 내용은 Alexa AI Deep Learning Blog에서 발행하는 AI 주간 뉴스에서 발췌, 번역하고 개인적으로 내용을 추가하여 만든 것입니다.

A Gentle Introduction to Graph Neural Networks

Distill

A Gentle Introduction to Graph Neural Networks

다음 내용이 궁금하다면?

또는

이미 회원이신가요?

2021년 9월 4일 오후 3:23

댓글 0