STAMP: Scalable Task And Model-agnostic Collaborative Perception
arXiv.org
협업 인식의 새로운 지평: STAMP 프레임워크, 에이전트 간 효율적인 기능 공유 및 융합 실현
이 논문에서는 멀티 에이전트 간의 협업 인식을 위한 확장 가능한 작업 및 모델에 관계없이 적용가능한 프레임워크인 STAMP를 제안합니다. STAMP는 에이전트 간의 효율적인 기능 공유 및 융합을 용이하게 하면서 계산 오버헤드를 최소화하기 위해 에이전트별 도메인과 공유 프로토콜 도메인 간에 BEV 기능을 변환하는 경량 어댑터-리버터 쌍을 사용합니다. 시뮬레이션된 OPV2V 및 실제 V2V4Real 데이터 세트에 대한 광범위한 실험 결과 STAMP가 최첨단 모델과 비교할 수 있거나 더 우수한 정확도를 달성하면서 계산 비용을 크게 절감하는 것으로 나타났습니다.
https://arxiv.org/abs/2501.18616
10억 개 매개변수도 문제없다! 대역폭 걱정 없이 LLM 분산 학습하는 3가지 혁신 기술
이 논문에서는 대규모 언어 모델 (LLM)의 분산 학습에서 통신 비용을 줄이는 데 중점을 둡니다. 기존의 분산 학습 방법인 DiLoCo는 워커 간의 동기화를 줄여 통신량을 줄였지만, 여전히 높은 대역폭을 필요로 했습니다. 본 논문에서는 DiLoCo를 개선하여 대역폭을 더욱 줄이는 세 가지 방법을 제안합니다. 첫째, 매개변수의 일부만 순차적으로 동기화하여 최대 대역폭을 줄입니다. 둘째, 동기화 중에도 워커가 계속 학습하도록 하여 시간을 단축합니다. 셋째, 워커 간에 교환되는 데이터를 양자화하여 대역폭을 줄입니다. 실험 결과, 이러한 개선 사항을 통해 10억 개 규모의 매개변수를 분산 학습하면서 기존 방법과 유사한 품질을 달성하고 대역폭 요구 사항을 크게 줄일 수 있음을 보여줍니다.
https://huggingface.co/papers/2501.18512
2017년부터 명맥을 이어온 AI명문
아이펠리서치 온라인13기 사전등록 : https://bit.ly/4jzwrSS
다음 내용이 궁금하다면?
이미 회원이신가요?
2025년 2월 3일 오전 6:21
이
... 더 보기외국어를 사용해서? 돈을 더 많이 벌어서? 새로운 기회가 많아서? 글로벌 경력을 쌓을 수 있어서?
... 더 보기1. 20대의 스티브 잡스가 했던 행동과 50대에 그가 보여주었던 효율적인 리더십을 혼동하면 안 된다.