Hi, there! 8월 20일 ~ 27일 간 나온 AI 주요 포스트와 논문을 추려보았습니다. 자연어 처리와 챗봇에 관한, 그리고 모델 아키텍처보다는 활용, 편향 및 윤리에 관한 이야기가 많네요.
• Czech Technical University 팀 Alquist가 Alexa Prize Socialbot Grand Challenge를 우승했습니다.(https://www.amazon.science/academic-engagements/czech-technical-university-team-wins-alexa-prize-socialbot-grand-challenge-4%20)
• Interspeech에서 Katrin Kirchhoff가 AWS의 광범위한 음성 연구에 관해 보여줄 것입니다.(https://www.amazon.science/blog/the-range-of-awss-speech-research-is-on-display-at-interspeech)
• Google이 다양한 문법 오류를 포함한 대규모 문법 오류 교정 합성 데이터셋(http://ai.googleblog.com/2021/08/the-c4200m-synthetic-dataset-for.html)을 공개했습니다.
• Stanford에서 기반 모델에 관한 논문에 이어 사전 훈련한 몇 가지 대형 모델의 사용 현황과 영향력에 대한 워크숍 (https://crfm.stanford.edu/workshop.html)을 키노트 / 토론 / 패널 등 흥미롭게 구성하여 마련했습니다. 또한 대규모 언어 모델 훈련 용도의, 투명하고 접근 용이한 프레임워크(https://github.com/stanford-crfm/mistral)를 발표했습니다.
• 데이터베이스의 텍스트 추론(https://ai.facebook.com/blog/using-ai-for-database-queries-on-any-unstructured-data-set) – Facebook은 기계가 비정형 데이터를 검색하고 데이터베이스와 자연어 분야를 연결 가능하게 만드는, 새로운 접근 방식을 제시했습니다.
• DeepMind의 Sebastian Ruder가 자연어 처리 벤치마킹의 난점과 권장 사항에 대하여 이야기했네요.(https://ruder.io/nlp-benchmarking)
• Facebook은 대화를 통한 사용자 중심의 추천 데이터셋, NUANCED(https://arxiv.org/pdf/2010.12758.pdf)을 공개했습니다.
• ALiBi(https://ofir.io/train_short_test_long.pdf) – 추론할 때 주어진 것보다 시퀀스를 더 길게 만들어주는 외삽법입니다. 저자가 구체적으로 설명한 내용(https://twitter.com/OfirPress/status/1430536370078896137)을 확인해보세요.
• Viola(https://arxiv.org/pdf/2108.11063.pdf) – 불특정 주제로 생성하고 순위 지정하는 대화 시스템입니다. Alexa Prize Socialbot Grand Challenge를 위한 시스템 중 하나입니다.
• 자연어 처리 편향의 출처(https://onlinelibrary.wiley.com/doi/epdf/10.1111/lnc3.12432) – NLP의 기술적, 인지적 편향에 대한 정리입니다.
• 그냥 안된다고 말하세요(https://arxiv.org/pdf/2108.11830.pdf) – 공격적인 맥락에서 신경망 대화 생성의 입장을 분석합니다.
• SASRA(https://arxiv.org/pdf/2108.11945.pdf) – 연속적인 환경에서의 시각 및 언어 탐색을 위해 의미론적 인지 가능한 시공간 추론 에이전트입니다.
• ProofFVer(https://arxiv.org/pdf/2108.11357.pdf) – 사실 검증을 위해 자연적 논리의 정리를 증명하는 방법론입니다.
위 내용은 Alexa AI Deep Learning Blog에서 발행하는 AI 주간 뉴스에서 발췌, 번역하고 개인적으로 내용을 추가하여 만든 것입니다.