1️⃣[CodeTransOcean: 다양한 프로그래밍 언어 간의 코드 번역을 위한 대규모 벤치마크]
코드 번역 기술은 프로그래밍 언어 간의 코드 변환에 중요하며, 현재 대부분의 데이터 세트는 주요 언어 쌍에만 중점을 둡니다. 이를 해결하기 위해 CodeTransOcean이라는 대규모 벤치마크가 구축되었습니다. 이는 여러 프로그래밍 언어 간의 번역을 지원하는 MultilingualTrans, 틈새 프로그래밍 언어의 번역을 지원하는 NicheTrans, 그리고 LLM을 이용한 번역의 컴파일 가능성을 평가하는 LLMTrans로 구성됩니다. 추가로 딥러닝 코드의 프레임워크 간 번역을 지원하는 DLTrans도 포함되어 있다. 이 데이터 세트는 다양한 언어 쌍에 대한 코드 번역 품질과 학습 효율성 향상에 기여하며, 새로운 평가 지표도 제안했습니다. LLM ChatGPT를 사용한 평가와 향후 연구 방향도 함께 제시되었습니다.
https://arxiv.org/pdf/2310.04951.pdf
2️⃣[ALMT: 언어 가이드를 활용한 상호 보완적 멀티모달 감성 분석 모델]
멀티모달 감성 분석은 다양한 정보 소스를 활용하여 효과적입니다. 그러나 여러 모달리티의 정보가 서로 상충되거나 관련성이 없을 수 있어 성능 향상에 제한이 있을 수 있습니다. 이 문제를 해결하기 위해 적응형 언어 가이드 멀티모달 트랜스포머(ALMT)가 제안되었으며, 이는 언어 특징의 안내를 받아 시각 및 오디오 특징에서 관련성 및 충돌을 억제하는 표현을 학습합니다. 이를 통해 모델은 효과적인 멀티모달 감성 분석을 위한 상호 보완적인 표현을 얻습니다. ALMT는 다양한 데이터 세트에서 우수한 성능을 보였으며, 이 메커니즘이 필요하고 유효하다는 것을 입증했습니다.
https://arxiv.org/pdf/2310.05804.pdf
3️⃣[TPU v5e와 JAX를 활용한 SDXL 모델 최적화: 허깅 페이스의 대규모 이미지 생성 솔루션]
SDXL과 같은 제너레이티브 AI 모델은 고품질의 콘텐츠 생성을 가능하게 하지만, 대형 이미지 생성 모델로 인해 프로덕션 환경에서 배포하는 데 큰 어려움과 비용이 발생합니다. 허깅 페이스는 이를 해결하기 위해 Google Cloud의 특별히 설계된 TPU v5e를 활용하여 JAX를 통해 SDXL 모델을 지원하게 되었습니다. 이는 대규모 AI 모델의 훈련 및 추론에 비용 효율적으로 최적화된 방법을 제공합니다. 데모는 여러 개의 TPU v5e-4 인스턴스에서 실행되며, 약 4초 안에 4개의 대형 이미지를 생성할 수 있습니다.
https://huggingface.co/blog/sdxl_jax
—
🥇K-디지털 트레이닝 기관 최초! '대통령 표창' 수상한 모두의연구소의 신뢰받는 교육
☑️ AI 딥러닝을 심도 있게! <AI학교 아이펠> 7기 지원하기 → https://bit.ly/3YDkLV4
☑️ SW 과정 신규 오픈! <자바스크립트 웹 풀스택> 1기 지원하기 → https://bit.ly/3tmITjj
다음 내용이 궁금하다면?
이미 회원이신가요?
2023년 10월 11일 오후 11:10