Hi, there! 8월 13일 ~ 20일 간 | 커리어리

Hi, there! 8월 13일 ~ 20일 간 나온 AI 주요 포스트와 논문을 추려보았습니다. 항상 느끼지만, 포스팅과 논문의 방점은 강렬한 제목 또는 모델 약어(DEXTER라니...?)에서 나오는 게 아닐까요. 🤖 • DeepSpeed는 8배 더 큰 MoE 모델 훈련을 고성능으로 지원합니다. (https://www.microsoft.com/en-us/research/blog/deepspeed-powers-8x-larger-moe-model-training-with-high-performance) – 다시 떠오르는 모델 구조 Mixture of Experts를 MS의 DeepSpeed가 강력하게 지원합니다. • VoxPopuli: AI 번역 등을 위한 가장 큰 규모의 다국어 음성 말뭉치 공개 (https://ai.facebook.com/blog/voxpopuli-the-largest-open-multilingual-speech-corpus-for-ai-translation-and-more) – 논문(https://arxiv.org/abs/2101.00390)과 데이터셋(https://github.com/facebookresearch/voxpopuli)을 확인하세요. · 전 세계 데이터를 처리할 수 있는 아키텍처 구축(https://deepmind.com/blog/article/building-architectures-that-can-handle-the-worlds-data) – DeepMind가 좀 더 유연하게 구축한, 일반적 선형 확장 ML 아키텍처입니다. 논문(https://arxiv.org/abs/2107.14795)과 코드(https://github.com/deepmind/deepmind-research/tree/master/perceiver)를 살펴보세요. · 제한된 네거티브 샘플을 사용하여 연합 표현과 추천 학습하기(https://arxiv.org/abs/2108.07931) – 연합 학습 시 불균형한 네거티브 샘플링의 영향을 줄이기 위해 배치 센서티브 손실을 사용합니다. · 기반 모델의 기회와 위험에 대하여(https://arxiv.org/abs/2108.07258) – 시간이 있다면 몇 가지 거대 모델의 계속 증가하는 사용 현황에 대해 읽어보세요. · 다중 제약 조건을 통한 연속 최적화로 제어된 텍스트 생성하기(https://arxiv.org/abs/2108.01850) – 미세 조정 대신 제약 조건이 있는 디코딩을 사용합니다. · 신경망 음성 품질을 향상하기 위해 여러 언어의 화자를 결합하기(https://arxiv.org/abs/2108.07737) – 다국어 음성 합성(TTS) 주제의 멋진 작업물입니다. · DEXTER: 가상 비서의 개체명 인식 작업을 위한 외부 지식 심층 인코딩(https://arxiv.org/abs/2108.06633) – 지능형 음성 비서(IVA)를 향한 발화에 잡음이 보통 많이 섞여있는데요. 이런 상황에서 논문은 개체명 인식(NER)에 관한 흥미로운 접근 방식을 보여줍니다. · SelectGen 챌린지: 퓨-샷 신경망 텍스트 생성 작업을 위한 최적의 훈련 샘플 찾기(https://arxiv.org/abs/2108.06614) – 선택 전략에 관한 많은 작업물을 보고 싶다면 논문을 저장하세요. 위 내용은 Alexa AI Deep Learning Blog에서 발행하는 AI 주간 뉴스에서 발췌, 번역하고 개인적으로 내용을 추가하여 만든 것입니다.

VoxPopuli: The largest open multilingual speech corpus for AI translation and more

Facebook

2021년 8월 21일 오전 2:47

댓글 0

주간 인기 TOP 10

지난주 커리어리에서 인기 있던 게시물이에요!

현직자들의 '진짜 인사이트'가 담긴 업계 주요 소식을 받아보세요.

커리어리 | 개발자를 위한 커리어 SNS