GitHub - Olow304/memvid: Video-based AI memory library. Store millions of text chunks in MP4 files with lightning-fast semantic search. No database needed.
GitHub
1️⃣[MathCoder: 수학 방정식 추론 및 모델링을 위한 LLM]
최근 GPT-4 코드 인터프리터는 자연어 기반의 코드 추론 및 실행 능력을 통해 어려운 수학 문제를 해결했습니다. 본 논문은 오픈소스 언어 모델을 미세 조정하여 수학 방정식의 코드 모델링과 추론 능력을 강화하는 방법을 제시하며, "MathCodeInstruct" 데이터 세트를 소개합니다. 이를 통해 "MathCoder"라는 모델이 개발되어 MATH(45.2%) 및 GSM8K(83.9%)에서 최고의 성능을 보였습니다. 특히, MathCoder는 GPT-4를 능가하는 성능을 MATH 데이터 세트에서 보였습니다.
https://huggingface.co/papers/2310.03731
2️⃣[SANPO: 인간 중심적 장면 이해를 위한 구글의 다중 속성 비디오 데이터 세트]
사람들은 일상에서 '자기 중심적' 관점으로 환경을 탐색하며, 이러한 관점은 다양한 기술에도 적용됩니다. 컴퓨터 비전에서는 객체와 환경 사이의 관계를 연구하여 3D 구조와 레이아웃을 파악하는 장면 이해의 중요성을 인식합니다. 자율주행과 같은 분야에서는 많은 센서를 활용하지만, 인간 중심의 내비게이션을 위한 데이터는 부족합니다. 이에 따라 구글 리서치는 실외 환경에서 인간의 자기 중심적 장면 이해를 위한 다중 속성 비디오 데이터 세트인 'SANPO'를 제안하였으며, 이는 실제 및 합성 데이터로 구성되어 있습니다.
https://blog.research.google/2023/10/sanpo-scene-understanding-accessibility.html
3️⃣[RT-2-X와 X-임베디먼트: 구글 딥마인드의 범용 로봇 학습 리소스 및 모델]
로봇은 전문 분야에서는 뛰어나나 다양한 분야에서의 활동에는 제약이 있습니다. 이를 극복하기 위해 구글 딥마인드는 다양한 로봇 유형을 위한 범용 로봇 학습 리소스 세트를 제공하는 오픈 X-임베디먼트 데이터 세트와 로봇 트랜스포머(RT) 모델인 RT-1-X를 출시했습니다. 단일 모델을 여러 로봇 구현의 데이터로 훈련하면 특정 로봇에 맞춘 모델보다 뛰어난 성능을 보이는 것이 확인되었습니다. 이러한 모델과 데이터 세트는 로봇 연구 커뮤니티에 큰 변화를 가져올 것으로 기대되며, 구글 딥마인드는 이를 공개하여 연구의 발전을 도모하고자 합니다.
https://www.deepmind.com/blog/scaling-up-learning-across-many-different-robot-types
—
🥇K-디지털 트레이닝 기관 최초! '대통령 표창' 수상한 모두의연구소의 신뢰받는 교육
▷ AI/딥러닝을 심도 있게! AI학교 아이펠 7기 지원하기 → https://bit.ly/3YDkLV4
▷ SW 과정 신규 오픈! <자바스크립트 웹 풀스택> 신청하기 → https://bit.ly/3tmITjj
다음 내용이 궁금하다면?
이미 회원이신가요?
2023년 10월 10일 오후 11:40
이번 발표를 보고 애플은 끝났다라고 말하는 사람들도 많지만, 나는 오히려 초심으로 돌아갔다고 느껴진다. 이제 진짜 시작한다는 느낌도 들고.
테키 입장에서는 특히 한국 사람 입장에서는 아무것도 없는 것 같이 느껴질 수 있다. 하지만, 기능들 발표한 걸 보면 작아 보이는 것들이 보통 사람들의 매일의 일상속에 필요한 것들이다.
직전 애플 행사에선 AI 기술 따라가야된다고 뭔가 기술적인 아젠다를 말하는데 힘썼는데, 이번엔 WWDC임에도 사용자들에게 필요한 것들을 많이 내 놓았다. 이것이 애플의 철학이 아닌가.