Chameleon: Mixed-Modal Early-Fusion Foundation Models
arXiv.org
커리어리 친구들, FAIR의 새로운 논문, "Chameleon: Mixed-Modal Early-Fusion Foundation Models"를 추천드립니다.
논문 읽기 ➡️ https://go.fb.me/7rb19n
일부 대형 언어 모델(LLM)은 이미지와 텍스트 인코더 또는 디코더를 별도로 가지고 있지만, 이 연구는 임의의 순서로 이미지와 텍스트를 이해하고 생성할 수 있는 초기 융합 토큰 기반의 혼합 모달 모델 계열을 제시합니다.
논문에는 전체 모델링 접근 방식과 훈련에 대한 자세한 내용이 포함되어 있습니다. 이 연구를 공유함으로써 혼합 모달 모델에 대한 연구가 한 단계 발전된 것 같아서 공유 드립니다.
더 많은 콘텐츠를 보고 싶다면?
이미 회원이신가요?
2024년 5월 18일 오전 5:09
제가 한국에서 직장 생활을 시작하고 가장 먼저 배운 것은 아이러니하게도 야근이었습니다. 신입이었던 제게 야근은 선택의 문제가 아니었거든요. 선배들에게 야근은 너무나 당연한 루틴이었고, 저녁 5시가 되면 "퇴근 안 해?"가 아니라 "저녁 뭐 먹을까?"라는 질문을 던졌습니다. 누가 정해놓은 것처럼 부장님이 퇴근해야 과장님이, 과장님이 퇴근해야 대리님이, 대리님이 퇴근해야 비로서 저 같은 신입도 퇴근 생각을 할 수 있었습니다.
... 더 보기1. 당신 자신을 믿어라. 결코 모방하지 마라.
자주 사용하는 공통기능을 하나의 모듈로 만들어 놓고, 필요할때 마다 참고 하는 성향이 있어서 개인적인 공간에 작업물을 정리 하거나, 나만의 모듈로 만드는 것을 종종 진행하고 있어요.
... 더 보기