파두

파두,주식회사 파두,fadu

개발팀 리뷰

위 내용은 파두 전 • 현 재직자의 응답 결과입니다.

기술 스택

기술 스택 정보가 없어요.

재직자가 작성한 글

profile picture

Darin Kim

SSD FW Engineer

안녕하세요, 해찬님. 저 또한 3년차가 될 때 까지 이 길이 맞는지 계속 고민하던 기억이 떠오르네요. 제 결론은 임베디드, 펌웨어 직군은 과거에도 그랬고 현재도 그렇듯 미래에도 꾸준히 수요가 있는 직군일거라는 점입니다 :) 다만 아직 학부 2학년이시니 최대한 다양한 개발 경험을 해 보시기 추천드려요. 해찬님이 어떤 도메인을 맡았을 때 즐겁게 개발할 수 있는지는 해 보지 않고는 모르는 것이니까요. 언어는 도구에 불과하고, 개발 자체가 즐겁다면 도메인은 임베디드/프론트/백엔드 등 직군을 가리지 않고 하실 수 있어요! 아래는 임베디드/펌웨어 직군으로 이직을 원하는 분과 커피챗 했을 때 작성했던 게 있어 공유드립니다. 도움이 되시길 바랄게요.? ------------------------------------------------------------ 1. 임베디드/펌웨어 업무와 적합한 사람은 어떤 사람일까요? 제가 적합할까요? - 제가 경험한 임베디드, 펌웨어 일에 대해 공유드릴게요. - 임베디드 개발은 적은 리소스를 최대 효율로 활용하면서 개발하는 일이 늘 챌린지입니다. FW 코드 메모리가 터지는 일도 다수고 이런 경우 코드 최적화를 개발자 스스로 해야하기도 해요. 빠른 성능을 내기 위해 불필요한 코드를 작성하지 않아야 하기도 합니다. - 디버깅이 어렵습니다, 경우에 따라서 print로만 디버깅 해야하는 경우도 있고, 그마저도 어려운 경우가 있어서 예상되는 버그 시나리오를 머릿속으로 그리면서 디버깅 해야 할 일도 있어요. - 하지만 그만큼 매력있는 일이라고 생각합니다. 무언가 버그를 만나고, 그거에 대해 깊게 디버깅하고 결국 원인을 찾아 해결까지 하고나면 고생했던게 싹 잊혀질만큼 즐거운 일이에요. - 임베디드, 펌웨어에도 다양한 범위가 있는데요. 알고리즘 위주의 개발을 하는 일도 있고, 더 Low 레벨에서 HW 제어를 하는 부분도 있어요. 실제 hw를 제어를 위해 레지스터 set 하고 읽고 그거에 맞는 펌웨어도 개발하죠. 저는 현재 HW 제어쪽 보다는 알고리즘과 기능 동작 위주의 펌웨어 개발을 하고 있습니다. - 새로운 공부에 대한 부담이 적은 것 같아요. 웹 쪽은 트렌드가 빠르게 변화하는 것 같아요. 이전에 없던 기술과 언어가 많이 나오기도 하죠. 펌웨어쪽은 이런 변화에선 조금 자유롭습니다. 물론 HW 변경에 따라 FW도 달라져야하는데 대부분 큰 틀은 비슷합니다. 하지만 적다고 했지 없다고는 안했습니다.? 개발은 평생 공부해야하는 직업이라는 말에 공감합니다. 2. 임베디드, 펌웨어 직군은 계속 돈을 벌 수 있는 직군인가요? 전망이 어떤가요? - 네, 계속 돈을 벌 직업이라고 생각해요. 지금 웹 개발자 열풍이죠. 솔직히 말해 펌웨어 개발자에 대해 이런 인기가 올 것이라고는.. 할 수 없을 것 같습니다.? 하지만 없어질 직군은 절대 아니라고 생각합니다. 오히려 근래 chatGPT가 나오면서 개발자도 대체되는 것 아니냐, 이런 말도 나오는 것 같은데요. 펌웨어는 실제 HW 기반으로 동작해야하기 때문에 사람이 해야할 수밖에 없고 꾸준히 수요가 있을거라고 생각합니다. 물론 드라마틱하게 연봉을 받는건 기대하기 어려울 수 있죠. ㅎㅎㅎ 하지만 돈을 못 벌 직군은... 아니라고 생각합니다. 그리고 무엇이든 웹/머신러닝/AI등 새로운 기술이 발전하려면 성능 좋은 HW가 따라와야하고 이걸 제어하는 펌웨어도 꼭 필요하단 점을 기억해주세요.

profile picture

Darin Kim

SSD FW Engineer

새로운 커리어 시작

안녕하세요, 또 오랜만이네요 개발자 커리어는 아니지만 제 커리어에 새로운 이벤트가 추가되어 기록하러 왔습니다. 길고양이와 동물권 뉴스레터인 캣챠?에 합류해 에디터로 활동하게 되었어요. 구독자가 있는 플랫폼에 무언가를 남기는 것이 인스타그램을 제외하고는 처음이라 굉장히 떨리고 설레었습니다. 사이드 프로젝트성으로 시작했지만 앞으로 제게 어떤 영향을 미칠지, 어떤 것들을 배우고 경험으로 쌓을 수 있을지 기대되네요. 오늘 제가 메인으로 참여한 레터에요. 저희 고양이들 이야기이기도 하니 재미있게 읽어주시고, 뉴스레터 캣챠에도 많은 관심과 응원 부탁드립니다.??

재직자가 좋아한 글

[Dev]모든 개발자가 마스터해야 할 7가지 AI 프레임워크!  |  간단한 챗봇 구축부터 복잡한 언어 모델 개발까지, 이러한 프레임워크는 최신 AI 애플리케이션의 기반이 됩니다. 2024년에 주목할 만한 가장 중요한 AI 프레임워크 7가지 내용을 공유해봅니다! ? 텐서플로우 * https://www.tensorflow.org/ * 연구용 및 프로덕션용 머신 러닝 애플리케이션을 위한 포괄적인 플랫폼을 제공하는 AI 프레임워크 생태계에 대한 Google의 강력한 기여 * 프레임워크 자체는 오픈 소스이므로 스타트업과 대기업 모두에게 비용 효율적 * 리소스에는 포괄적인 문서, 사전 학습된 모델, TensorFlow Hub를 통한 데이터 세트가 포함되어 있어 AI 솔루션을 빠르게 개발 및 배포 지원 * TensorFlow의 주요 특징 및 기능 * TensorFlow의 핵심은 AI 개발을 위해 선호되는 강력한 기능 세트 제공 * 유연한 아키텍처: 원활한 전환을 통해 CPU 및 GPU 컴퓨팅 모두 지원 * 시각화 도구: 상세한 모델 검사 및 디버깅을 가능하게 하는 TensorBoard * 프로덕션 준비 완료: 모바일, 엣지, 클라우드 플랫폼 전반에 걸쳐 모델 배포 가능 * 커뮤니티 지원: 광범위한 문서와 활발한 개발자 커뮤니티 * 사전 학습된 모델: 바로 사용할 수 있는 방대한 모델 라이브러리 액세스 * TensorFlow 구현 모범 사례 * 코드를 더 작고 관리하기 쉬운 함수로 리팩터링하고 가장 큰 계산 블록을 @ tf.function으로 장식하여 최적의 성능을 발휘할 때 가장 잘 작동 * 모델 개발의 경우, 높은 수준의 모델 구성을 위해 Keras API를 활용하면서 필요한 경우 낮은 수준의 TensorFlow 연산에 대한 액세스를 유지 ? PyTorch * https://pytorch.org/ * 직관적인 디자인과 동적 계산 기능으로 AI 프레임워크 환경에 혁신을 일으킨 Meta AI의 PyTorch는 연구자와 개발자 모두에게 사랑받는 제품 * 포럼, 포괄적인 문서, Meta AI 연구팀의 정기 업데이트를 통한 광범위한 커뮤니티 지원의 이점 * 엔터프라이즈 사용자를 위해 PyTorch Enterprise는 향상된 기능과 전용 지원 채널을 제공하여 프로덕션 환경에서 안정적인 배포 보장 * NumPy 및 Pandas를 비롯한 Python의 과학 컴퓨팅 에코시스템과 원활하게 통합되어 생성형 AI 모델과 대규모 언어 모델(LLM)을 개발하는 데 특히 효과적 * 동적 계산 그래프를 유연하게 처리 * PyTorch 아키텍처 및 구성 요소 * PyTorch의 아키텍처는 개발 단계에서 실시간으로 모델을 조정할 수 있는 Autograd라는 동적 계산 그래프 시스템 중심 * 텐서 연산: GPU 가속을 통한 고급 수학적 연산 * 신경망 모듈: 사전 구축 및 커스터마이징 가능한 네트워크 레이어 * 최적화 도구: 모델 트레이닝을 위한 정교한 알고리즘 * 데이터 유틸리티: 효율적인 데이터 로딩 및 전처리 도구 * PyTorch 개발 워크플로 * 데이터 준비 * 입력 데이터를 PyTorch 텐서로 변환하기 * 사용자 정의 데이터 세트 및 데이터 로더 생성 * 필요한 전처리 변환 적용 * 모델 개발 * torch.nn을 사용하여 네트워크 아키텍처 정의하기 * 포워드 패스 계산 구현하기 * 손실 함수 및 옵티마이저 구성 ? LangChain * https://www.langchain.com/ * 개발자가 대규모 언어 모델의 힘을 활용하는 방식을 혁신적으로 변화시킨 LangChain은 복잡한 LLM 기능과 실제 애플리케이션 간의 격차를 해소하는 획기적인 AI 프레임워크로 부상 * 강력한 문서, 광범위한 커뮤니티 지원, 지속적인 업데이트를 통해 개발자가 최첨단 AI 애플리케이션을 구축하면서 투자를 극대화할 수 있도록 지원 * LangChain 프레임워크 개요 * LangChain은 모듈식 아키텍처와 제너레이티브 AI 개발을 위해 특별히 설계된 포괄적인 도구 세트를 통해 차별화 * 프럼프트 관리 및 최적화 * 데이터 증강 생성 * 의사 결정을 위한 자율 에이전트 * 컨텍스트 유지를 위한 메모리 시스템 * 광범위한 통합 기능 * 외부 데이터 소스 * 문서 저장소 * 벡터 데이터베이스 * API 엔드포인트 * 개발 도구 * 버전 관리 시스템 * 모니터링 플랫폼 * 배포 서비스 * 비용을 최적화하기 위해 몇 가지 전략 * 빈번한 쿼리를 위한 캐싱 메커니즘 활용 * 가능한 경우 API 호출 일괄 처리 * 효율적인 리소스 할당을 위해 사용 패턴 모니터링 ? 허깅 페이스 트랜스포머 * https://huggingface.co/docs/transformers/en/index * 허깅 페이스 트랜스포머 라이브러리는 포괄적인 도구와 모델로 구성된 에코시스템을 통해 전 세계 개발자가 고급 자연어 처리를 이용할 수 있도록 하여 인공지능 대중화의 최전선 위치 * 허깅 페이스의 핵심 기능 * 바로 사용할 수 있는 수천 개의 모델이 포함된 사전 학습된 모델 허브 * PyTorch 및 TensorFlow와의 원활한 통합 * 고급 토큰화 및 전처리 도구 * 이전 학습을 위한 기본 지원 * 포괄적인 문서 및 커뮤니티 리소스 * 허깅 페이스 구현 가이드 * 허깅 페이스 트랜스포머 구현은 빠른 개발을 가능하게 하는 간단한 접근 방식. * 이 프로세스는 모델 선택에서 시작하여 미세 조정 및 배포를 통해 확장 * 최적의 결과를 얻으려면 개발자는 모델 아키텍처 세부 사항을 자동으로 처리하고 다양한 모델 유형에 걸쳐 일관된 인터페이스를 제공하는 AutoClass 시스템을 활용하는 데 집중 * 파이프라인 아키텍처를 통해 작업을 처리하는 데 탁월하므로 개발자는 최소한의 코드로 복잡한 NLP 작업 구현 가능. * 여기에는 기본 텍스트 분류부터 고급 생성 AI 애플리케이션까지 모든 것 가능 * 로컬 및 클라우드 배포 옵션을 모두 제공하며, 비용은 계산 요구 사항과 모델 복잡성에 따라 차이. * 기업 사용자는 SSO 지원, 감사 로그, 전용 인프라 옵션과 같은 추가 기능의 혜택 * 프로덕션 환경에서 작업하는 개발자를 위해 허깅 페이스는 허브에서 직접 전용 및 자동 확장 인프라를 제공하는 추론 엔드포인트 제공. * 이를 통해 최적화된 리소스 활용을 통해 비용 효율성을 유지하면서 안정적인 성능 보장 ? LlamaIndex * https://www.llamaindex.ai/ * 데이터와 대규모 언어 모델 간의 격차를 해소하기 위해 설계된 LlamaIndex는 개발자가 상황 인식 AI 애플리케이션을 구축하는 방식을 혁신하는 강력한 데이터 프레임워크 * LLM을 통해 다양한 데이터 소스에 액세스하고 쿼리할 수 있도록 하는 데 특화 * 엔터프라이즈 배포를 위해 가상의 문서 임베딩과 다양한 벡터 저장소와의 통합과 같은 고급 기능을 제공하여 조직이 비용 효율성을 유지하면서 AI 프레임워크 구현 확장 * LlamaIndex의 특징 및 기능 * 정교한 데이터 처리 및 검색 기능 중심 * 여러 소스 통합을 위한 데이터 커넥터(LlamaHub) * 고급 문서 작업(삽입, 삭제, 업데이트) * 다중 문서 합성 기능 * 쿼리 엔진 선택을 위한 라우터 기능 * 벡터 스토어 통합 및 ChatGPT 플러그인 지원 * OpenAI 함수 호출 API 호환성 * 라마인덱스 개발 프로세스 * 데이터 처리와 쿼리를 모두 최적화하는 2단계 접근 방식 * 데이터 처리 단계에서 프레임워크는 지식 베이스를 '노드' 객체로 저장된 관리 가능한 청크로 분할하는데, 이는 LLM의 토큰 제한을 처리하는 데 매우 중요 * 쿼리 프로세스: * 노드 수집: 쿼리 컨텍스트에 따라 관련 데이터 수집 * 응답 합성: LLM 통합을 사용하여 컨텍스트가 풍부한 답변 생성 * 채팅 엔진 구현: 데이터에 대한 지속적인 대화 활성화 * 비용 최적화 전략 * 인덱스 구축 및 쿼리 단계에서 비용을 예측하기 위한 토큰 예측기 구현 포함 * 개발자가 토큰 사용량을 효과적으로 관리하고 예측할 수 있도록 TokenCounting Handler 콜백 및 MockLLM 구현과 같은 기본 제공 도구를 제공 ? OpenAI 프레임워크(OPF) * https://platform.openai.com/docs/api-reference/introduction * 책임감 있는 안전하고 윤리적인 AI 프레임워크 구현을 위한 새로운 표준 제시 * 강력한 안전 프로토콜과 최첨단 개발 도구를 결합하여 AI 배포의 혁신과 책임 보장 * 프레임워크의 종량제 시스템은 모델 선택 및 사용 패턴에 따라 비용이 달라지는 유연한 확장 가능 * OpenAI는 사용자 지정 데이터 보존 기간과 향상된 보안 기능을 포함한 포괄적인 지원 옵션을 제공 * 프레임워크의 통합 기능은 다양한 개발 환경으로 확장되어 연구 이니셔티브와 프로덕션 규모의 애플리케이션을 모두 지원 * OpenAI 프레임워크 구성 요소 * 위험 평가를 위한 종합적인 평가 시스템 * 통합 사이버 보안 조치 * 안전 자문 그룹(SAG) 감독 * 책임 있는 확장 정책 구현 * 고급 모니터링 및 테스트 프로토콜 * OpenAI 구현 전략 * 안전과 효율성에 중점을 둔 구조화된 접근 방식 * 철저한 위험 평가로 시작하여 정기적인 안전 훈련과 레드팀 연습을 통해 배포를 계속 진행. * 시스템 배포 제어를 위한 절차적 조치와 함께 AI 알고리즘을 개선하기 위한 기술 솔루션을 통합 * 비용 최적화 전략: * 대시보드를 통한 토큰 사용량 모니터링 * 사용량 임계값 및 알림 구현 * 작업 요구 사항에 따른 전략적 모델 선택 * 언어 API는 토큰당 가격이 책정되는 반면, 이미지 생성 모델은 해상도 기반 요금제 ? Microsoft JARVIS * https://github.com/microsoft/JARVIS * 지능형 컨트롤러 아키텍처를 통해 여러 AI 모델을 오케스트레이션하는 획기적인 시스템인 Microsoft의 최신 AI 프레임워크 환경 혁신 JARVIS * 서로 다른 AI 모델 간의 원활한 상호 작용을 지원하므로 단일 모델로는 독립적으로 수행할 수 없는 복잡한 작업 실행 * 로컬 및 클라우드 기반 배포 모델을 모두 지원 * 엔터프라이즈 구현을 위해 JARVIS는 맞춤형 모델 통합, 전용 지원 채널, 특수 배포 옵션 등의 고급 기능 제공 * JARVIS 플랫폼 개요 * JARVIS의 핵심은 ChatGPT를 기본 컨트롤러로 활용하는 협업 시스템 * 플랫폼의 특징: * 멀티모달 처리 기능 * 실시간 웹 액세스 통합 * 고급 작업 계획 시스템 * 모델 간 협업 * 포괄적인 API 지원 * 지능형 리소스 관리 * JARVIS 개발 워크플로(4단계 워크플로우) * 작업 계획: ChatGPT가 사용자 요청을 분석하여 관리 가능한 하위 작업으로 세분화 * 모델 선택: Hugging Face에서 적절한 전문가 모델을 지능적으로 선택 * 작업 실행: 실시간 모니터링을 통해 선택한 모델의 조정된 실행 * 응답 통합: 결과를 일관된 출력으로 종합적으로 합성 * 배포 옵션에 따른 리소스 요구 사항 * 최소 설정: 16GB VRAM, 100GB 스토리지 * 표준 설정: 64GB RAM(Jetson AGX Orin에 권장) * 클라우드 배포: 유연한 확장 옵션 * 리소스 관리 시스템은 비용 효율성을 유지하면서 성능을 최적화하므로 연구 및 프로덕션 환경 모두에 적합 ? 결론 ? * 이 7가지 각 프레임워크는 각기 다른 용도로 사용됩니다. * TensorFlow(프러덕션 환경)와 PyTorch(연구환경)는 딥러닝 탁월 * LangChain과 LlamaIndex는 LM 기반 애플리케이션 구축에 특화 및 LLM 애플리케이션 간소화 * Hugging Face, OpenAI, Microsoft JARVIS는 자연어 처리와 멀티모달 AI 경계 확장 * 모든 프레임워크를 동시에 마스터하려고 시도하기보다는 당면한 프로젝트 요구사항에 맞는 프레임워크부터 시작하세요. * 출처: https://dev.to/pavanbelagatti/7-cutting-edge-ai-frameworks-every-developer-should-master-13l9

좋아요 46 저장 128

thumbnail