Paper page - From Generalist to Specialist: Adapting Vision Language Models via Task-Specific Visual Instruction Tuning
huggingface.co
VITask: 인공지능을 특수분야 전문가 만들기!, VITask가 만들어가는 새로운 세상
VITask는 대규모 비전 언어 모델(VLM)의 작업별 적응성을 향상시키는 프레임워크입니다. 사전 훈련된 VLM은 작업별 모델(TSM)보다 성능이 떨어지는 경우가 많습니다. VITask는 TSM을 활용하여 VLM의 성능을 향상시킵니다. VITask는 예제 프롬프팅(EP), 응답 분포 정렬(RDA), 대조 응답 조정(CRT)의 세 가지 전략을 사용합니다. EP는 TSM 기능을 사용하여 VLM을 안내합니다. RDA는 VLM이 추론 중에 TSM 없이 적응할 수 있도록 합니다. CRT는 올바른 이미지-응답 쌍의 순위를 최적화합니다. VITask는 의료 진단 데이터 세트에 대한 실험에서 바닐라 명령어 조정 VLM과 TSM 모두보다 성능이 뛰어났습니다. VITask는 유연한 TSM 통합 및 불완전한 명령어에 대한 견고성과 같은 실질적인 이점을 제공합니다.
https://huggingface.co/papers/2410.06456
MathCoder-2: 수학 천재 AI의 탄생! 코드로 수학 문제를 푸는 놀라운 능력
이 논문에서는 대규모 언어 모델(LLM)의 수학적 추론 능력을 향상시키는 새로운 방법인 MathCoder-2를 제안합니다. 핵심 아이디어는 LLaMA와 같은 LLM이 수학 문제를 풀 때 코드를 활용하도록 훈련시키는 것입니다. 이를 위해 수학 관련 웹 데이터, 코드, 교과서 등 다양한 소스에서 수집한 데이터를 사용하여 LLM을 사전 훈련합니다. 또한, LaTeX 표현식을 추출하고 이를 Python 코드로 변환하여 LLM이 수학적 추론 과정을 더 잘 이해하도록 돕습니다. 이렇게 훈련된 LLM은 기존 방법보다 수학 문제 해결 능력이 크게 향상되었습니다.
https://huggingface.co/papers/2410.08196
[마감임박!] AI개발자 과정! 입문자에서 전공자까지! AI학교 아이펠 10기 합류 : https://bit.ly/3Y0ZO7Q
다음 내용이 궁금하다면?
이미 회원이신가요?
2024년 10월 14일 오전 6:03
연
... 더 보기2
... 더 보기코딩과 프로그래밍과 소프트웨어 개발은 다른 것이고, 코딩은 앞으로 대부분은 할 필요가 없어질 것은 맞다고 본다.
... 더 보기