Qwen2.5-VL-32B: Smarter and Lighter
Qwen
얼마 전에 구글에서 Gemma3 를 오픈소스로 공개했고 (https://blog.google/technology/developers/gemma-3/), multimodality 를 가지고 있으며 성능이 상용모델에 가까울만큼 좋아서 꽤 인상적이었습니다.
근데 며칠 후 Mistral 에서는 Mistral small 3.1 (https://mistral.ai/news/mistral-small-3-1) 을 공개했습니다. 마찬가지로 multimodality 에 높은 성능을 달성한 벤치마크를 공개했습니다.
오늘은 알리바바에서 Qwen 2.5 VL 모델을 새로 공개했습니다. (https://qwenlm.github.io/blog/qwen2.5-vl-32b/) 32B 사이즈로 앞의 두 모델들보다는 조금 더 크지만 벤치마크 성능이 여러 분야에서 상용모델을 뛰어넘을 정도로 인상적입니다.
요즘은 Gemini, Claude, OpenAI GPT와 같이 API 로 쓸 수 있는 모델들의 성능들이 워낙 좋고 저렴해서 많이 특화된 도메인이거나 로컬로 ollama와 같은 걸 돌릴 때 외에는 오픈소스 모델을 쓸 필요성이 그리 많지는 않습니다만, 그래도 이렇게 다양한 오픈소스 모델들이 경쟁적으로 나오고 있어서 사용하는 입장에서는 참 좋을 것 같습니다.
1년 전만 해도 text in/out만 되는 LLM 경쟁이었는데, 요즘에는 Multimodality 와 Reasoning 모델을 가지고 경쟁하고 있는거 같습니다. 앞으로는 audio/video과 같은 modality에 대해서도 input 뿐 아니라 output 까지도 되며 더 효율적인 reasoning 을 하는 모델들과, agent orchestration이나 robot을 위한 모델들까지 경쟁이 확장될 것 같습니다..!!
다음 내용이 궁금하다면?
이미 회원이신가요?
2025년 3월 25일 오전 9:15