[2300913] 모두의연구소가 전하는 “모두를 위한 AI 뉴스”

🩵 모두의연구소는 함께 공유하고 성장하는 국내 최대 AI 커뮤니티입니다. 그럼, 오늘의 AI 뉴스 시작해 볼게요! :) 1️⃣ 전자책에서 자동 오디오북 생성하는 모델 공개! (https://huggingface.co/papers/2309.03926) 오디오북은 문학의 접근성을 확대하지만 제작에는 많은 시간이 필요하죠~ 이 연구에서는 온라인 전자책에서 고품질의 오디오북을 자동으로 생성하는 시스템을 소개합니다! 최근의 텍스트 음성 변환 기술을 이용해 프로젝트 구텐베르크의 전자책에서 인간 수준의 오디오북을 생성하는데요. 이 시스템은 다양한 전자책에서 읽을 수 있는 콘텐츠를 식별하고, 사용자는 말하기 속도, 스타일, 억양을 조절하거나 원하는 목소리로 매칭할 수 있습니다. 5,000개 이상의 오디오북과 맞춤형 오디오북 제작 데모를 제공한다고 하니 상세 내용은 링크에서 확인해보세요! 2️⃣ GPT-4를 이용한 'Chain of Density' 요약 방법 (https://huggingface.co/papers/2309.04269) 적절한 정보를 선택하여 요약하는 것은 꽤나 복잡한 작업인데요. 트위터에서 ‘Chain of Density’(CoD) 프롬프트를 이용해 GPT-4로 더 밀도 높은 요약을 요청했습니다! GPT-4는 누락된 주요 엔티티를 계속 통합하여 요약을 생성하는데요. 이 CoD를 통한 요약은 기본 프롬프트로 생성된 것보다 더 추상적이며 더 통합적입니다. 인간의 선호도 연구에서 밀도 높은 GPT-4 요약이 사람이 작성한 요약과 유사하게 선호됨을 발견하였으며, 정보와 가독성 간의 균형이 중요하다는 것을 확인했습니다. 3️⃣ 애플의 희소형 모바일 비전 MoE(V-MoE): 효율적인 비전 트랜스포머 최적화 (https://huggingface.co/papers/2309.04354) 분산 MoE모델(Sparse Mixture-of-Experts)은 모델 파라미터의 작은 부분만 활성화하여 높은 효율성을 달성합니다. 이 연구에서는 이 기술을 사용해 비전 트랜스포머(ViT)를 축소하여 리소스 제약이 있는 응용 프로그램에 맞게 최적화합니다. 전체 이미지를 처리하는 새로운 MoE 설계와 라우터 안내를 위한 슈퍼클래스 정보 사용을 제안하는데요. 결과적으로, 소니의 희소형 모바일 비전 MoE(V-MoE)는 기존 ViT 모델보다 더 높은 성능과 효율성을 보입니다. 특히, ViT-Tiny 모델의 경우, 애의 모바일 V-MoE는 ImageNet-1k에서 3.39% 더 높은 성능이라 하니 링크에서 꼭 확인해보세요~ 📍AI학교 아이펠 7기 무료 입학하기! → https://bit.ly/3YDkLV4

AI학교 아이펠 - 부트캠프와 다른 AI학교

AI학교 아이펠

AI학교 아이펠 - 부트캠프와 다른 AI학교

다음 내용이 궁금하다면?

또는

이미 회원이신가요?

2023년 9월 13일 오전 8:16

조회 687

댓글 0