커리어리 친구들, 제가 번역한 "맥에서 텐서플로우 최적화"에 보시면 애플이 텐서플로우 2.4 베타를 포크해서 M1칩(ARM)으로 포팅했다고 전해드렸는 데, 오늘은 정식적으로 구글에서 텐서플로우 2.4가 발표되었습니다.
주요 특징을 살펴 보면 다음과 같습니다.
1. CUDA 11과 cuDNN 8을 사용하여 NVIDIA의 앰페어 아키텍처(Ampere architecture) GPU를 기본으로 지원합니다.
2. tf.distribute 에서 새로운 특징으로 Parameter Server Strategy 및 Multi Worker Mirrored Strategy를 지원하며, 비동기 훈련(Asynchronous training)을 지원합니다.
3. Keras의 mixed precision API도 stable API로 변경되었습니다. 이 API를 사용하면 float16과float32를 동시에 사용하였을때 GPU에서 3배 TPU에서 60프로 성능향상이 있습니다
4. tf.keras.optimizer.Optimizer가 리팩토링해서 tape.grdient를 쓰지않고 optimizer.minimize에 gradient tape을 인자로 주면 바로 훈련할 수 있습니다.
5. tf.experimental.numpy에서 numpy의 api 일부를 바로 사용할 수 있습니다.
6. 새로운 프로파일 도구로써 TensorFlow Profiler 에 MultiWorker 를 지원합니다.
7. TFLite Profiler 를 지원함으로써 on-device ML 과 TinyML 에서 좀더 로깅 디버깅 및 모니터링이 쉬워졌습니다.
코랩도 곧 변경될 예정이므로 텐서플로우 개발자들에게는 연말 즐거운 소식이 될 것 입니다.
더 자세한 내용은 아래의 링크를 참조해 주세요!
오늘은 욕심이 많은 사람이 빠지기 쉬운 함정을 정확하게 꼬집는 글이 있어 소개 드리려고 합니다. 글에서는 '주니어'를 타겟으로 잡고 있지만, 주니어가 아니더라고 욕심이 많은 사람이면 (저를 포함해서😅) 뼈를 때리는 글 같아요.
개인적으로는 두번째인 '산만함'의 문제가 더 와닿았는데요. 항상 머릿속에 이것도 하고싶고, 저것도 하고싶고 조급한 마음이 많다보니 오히려 뭔가를 시작해서 팍 밀고 나가는 에너지가 부족하단 생각이 제 스스로 든 적이 있거든요.
비슷한 상황이 본인에게도 해당된다는 생각이 든다면 한번쯤... 더 보기
페이스북에 Jonas Kim님이 올린 포스팅인데 린 분석 방법론에 대해 다시 한번 생각해보게 됩니다.
저는 린 분석 방법론이 끝물이라는 생각이 들지 않습니다.
현장에서는 이미 트래픽과 매출액이 디커플링되기 시작한 것도 길게보면 7~8년 된 일이고, 성장과 이익을 동시에 균형있게 움직이는 방법을 찾지 못하는 많은 제품과 서비스가 있을 뿐입니다.
지적한 바와 같이 원가, 비용등 재무적인 분석도 대단히 중요한 일이 되어 가는 시점에서 데이터 분석가와 마케터도 이에 맞춰 적응해야 할 시기라고 생각되네요.
[... 더 보기