#과금

질문 1
해시태그 없이 키워드만 일치하는 질문은 개수에 포함되지 않아요.

10달 전 · 한윤호 님의 새로운 댓글

서버리스 백엔드 API 주소 노출

안녕하세요, 현재 람다, api gateway 등을 활용해서 서버리스 백엔드 구성을 시도하고 있는 학생입니다! 해커톤처럼 개발했던 서비스를 서버리스로 마이그레이션 하는 과정에서 과금 때문에 api 호출을 신경쓰다가 질문이 생겨 글을 쓰게 되었습니다. 이전까지는 해당 부분을 신경쓰지 않아서 크롬 데브툴에서 네트워크를 확인하면 백엔드 API 주소가 그대로 노출되었습니다. 그런데 서버리스를 고민하다보니 API 주소가 노출되면 API를 직접 과하게 호출하여 서비스를 공격하거나 심지어 페이지를 과하게 새로고침하여 백 API가 과하게 호출될 수도 있어 위험할 것 같습니다. 서버리스면 과금의 문제고 서버풀이어도 서버에 부하가 걸리는 문제가 발생할 수 있을 것 같은데 이런 문제는 어떻게 방지하는지 막상 떠오르지 않아 질문글로 남깁니다. 아직 모르는 것이 많아 여러모로 조언, 충고 부탁드립니다!

개발자

#서버리스

#서버

#백엔드

#api

답변 1

댓글 1

조회 136

10달 전 · 신예찬 님의 새로운 댓글

RCE 보안공격 질문입니다!

안녕하세요 백엔드 취업 준비생입니다 최근 프로젝트를 진행중에 배포서버를 구성해봤습니다 aws ec2에 docker compose로 nginx, WAS, redis를 컨테이너화해 동작시키고, nginx에 의해 3개의 WAS가 로드밸런싱 된 상태입니다(WAS 는 sping boot+spring security+JPA를 사용중입니다) route 53으로 Gabia에서 구매한 도메인을 연결해둬 도메인 접근을 허용해둔 상태입니다 배포 서버가 정상적으로 동작하는지 확인하기 위해 log를 보고 있었는데 이상한 요청이 보였습니다 요청 url에 `chmod 777`이라던지 `rm -rf`가 보여서 식겁해서 일단 서버는 내려뒀습니다 알아보니 RCE라는 공격 방식 같더라고요 그래서 RCE를 막는 최선의 방법이 무엇인지 궁금합니다 또 통상적으로 알고있으면 좋은 보안 방어 기법에는 어떤것들이 있을지 궁금합니다! (가능하면 AWS 과금이 없는방법이면 더 좋을거같아요 😊 😊)

개발자

#nginx

#security

#springboot

#aws-ec2

답변 1

댓글 1

조회 83

10달 전 · 디큐 님의 새로운 답변

aws 비용이 RDS에서 너무 많이 나가는데 비용절감 방법이 있을까요?

aws Cost Explorer에서 RDS 비용이 다른 항목에 비해 비용이 많이 나가는데요.. 아래 Amazon Web Services Korea LLC 서비스별 요금 정보에서 보면 "USD 0.120 per hour per vCPU running RDS Extended Support for MySQL 5.7 in Year 1, Year 2 2,972 vCPU-hour USD 356.64" 위의 항목이 제일 많이 나가고 있는데요. * 할당량 * DB 인스턴스 (2/40) 할당된 스토리지 (0.08 TB/100 TB) * 인스턴스 정보 * dev-ds MySQL Community ap-northeast-2a db.t3.small DB 엔진 버전 8.0.36 prod-rds MySQL Community ap-northeast-2a db.t3.medium DB 엔진 버전 8.0.36 사용중인 스토리지 양도 적은데 어떤 이유로 과금이 많이 되는걸까요? aws 전문가님들!~ 답변 부탁드릴게요^^~ * 청구서 상세정보 * "Relational Database Service USD 480.57 Asia Pacific (Seoul) USD 480.57 Amazon Relational Database Service for MySQL Community Edition USD 472.71 USD 0.052 per db.t3.small Single-AZ instance hour (or partial hour) running MySQL 744 Hrs USD 38.69 USD 0.104 per db.t3.medium Single-AZ instance hour (or partial hour) running MySQL 744 Hrs USD 77.38 USD 0.120 per hour per vCPU running RDS Extended Support for MySQL 5.7 in Year 1, Year 2 2,972 vCPU-hour USD 356.64 Amazon Relational Database Service Provisioned Storage USD 7.86 $0.00 per GB-month of provisioned GP2 storage under monthly free tier running MySQL 20 GB-Mo USD 0.00 $0.131 per GB-month of provisioned gp2 storage running MySQL 30 GB-Mo USD 3.93 $0.131 per GB-month of provisioned GP3 storage running MySQL 30 GB-Mo USD 3.93 Elastic Compute Cloud USD 143.00 Asia Pacific (Seoul) USD 143.00 Amazon Elastic Compute Cloud NatGateway USD 43.93 $0.059 per GB Data Processed by NAT Gateways 0.448 GB USD 0.03 $0.059 per NAT Gateway Hour 744 Hrs USD 43.90 Amazon Elastic Compute Cloud running Linux/UNIX USD 79.46 $0.026 per On Demand Linux t3.small Instance Hour 744 Hrs USD 19.34 $0.0288 per On Demand Linux t2.small Instance Hour 744 Hrs USD 21.43 $0.052 per On Demand Linux t3.medium Instance Hour 744 Hrs USD 38.69" 답변 부탁드릴게요. 감사합니다^^!

개발자

#aws

#rds

#과금

#aws-rds

답변 1

댓글 0

조회 431

10달 전 · 이지형 님의 새로운 답변

이직할 회사 도저히 못 고르겠습니다...

안녕하세요. 5년차 백엔드 개발자로 스타트업에서 일하다가 이직 확정 후 얼마 전에 퇴사했습니다. A 회사를 제일 가고 싶었어서 다른 3개의 회사도 입사 포기했는데, 처우협의 해보니 연봉이 걸려서 고민중입니다. 회사 네임벨류와 업무, 복지 빼고 보면 B회사가 마음에 드는데 이 세가지가 마음에 걸리네요. 현재 상황이 LH 당첨되서 1년 뒤 위례역 근처로 이사가야 하는데 거리상으로는 B 회사가 30분 이상 가깝긴 하네요. A 회사 가게 되면 LH 입주 전 1년 간은 자취해야해서 돈이 많이 깨질 거 같고, B 회사는 1년 동안 출퇴근이 가능합니다. 어디 회사 가는게 좋을까요.. 도저히 못고르겠습니다 [A 회사] 국내 10대 그룹 중 한 곳의 계열사로 그룹사들의 IT 담당하는 회사. (대외 프로젝트도 진행함) - 규모: 1000명 이상 - 회사 위치: 명동 - 업무: 내부 백오피스 시스템 운영 및 유지보수. - 복지: 계열사 할인 등 복지 많음. 구내식당 보유. 사내 헬스장 보유. -연봉: 계약연봉 기존이랑 같음 / 성과금 연 4-500 정도 [B 회사] 국내 최고의 타이어회사 그룹 계열사로 그룹사들의 IT 담당하는 회사. - 규모: 약 150명 정도 - 회사 위치: 판교 - 업무: 타이어 라벨 발주 시스템 운영 및 유지보수. (업무 정말 단순해보임.) Spring 이 아니라 회사에서 만든 자체 프레임워크 사용 (다른 곳으로 이직 시 불안 요소) - 복지: 회사 사옥 깔끔하고 엄청 좋음. 구내식당 보유. 사내 헬스장 보유. -연봉: 계약연봉 현재 + 500 / 성과금 연 300 정도 / 평가 잘받으면 기본급 도 올라감

투표

개발자

#이직

#경력이직

답변 7

댓글 1

추천해요 1

조회 4,215

일 년 전 · 박범수 님의 새로운 답변

AWS 잘알님을 찾습니다) 퍼블릭 IP 3개는 필수일까요?

안녕하세요! 사이드프로젝트를 하고 있는 주니어 개발자입니다. 얼마전 AWS에서 웹사이트를 배포하였는데요, AWS에서 (EC2 제외) 모든 퍼블릭 IP에 과금이 된다고 해서, 필수 IP들만 남겨 두려고 합니다. 현재 EC2 하나에 탄력적IP를 하나 할당했고, 웹사이트에 SSL적용을 위해 로드밸런서를 사용하면서, (최소 2개의 가용영역을 선택해야 하므로) 2개의 네트워크 인터페이스에 퍼블릭 IP가 각각 하나씩 할당되었습니다. 그래서 웹사이트 운영을 위해 이렇게 총 3개의 퍼블릭 IP는 어쩔 수 없이 꼭 사용을 해야하는 것 같은데, 맞는지 궁금하여 여쭤봅니다!! 답변 고맙습니다🙏

개발자

#aws

#웹사이트

#ip

답변 1

댓글 0

조회 112

일 년 전 · ㄱㅎㅁ 님의 답변 업데이트

정기적 서버트래픽 데이터센터가 나을까요 클라우드서버가 나을까요

안녕하세요 현재 데이터센터에서 월 25만원으로 서버를 임대해서 예약-결제 사이트를 운영하고 있습니다. 평소에는 하루에 접속자수 100명, 동시접속자는 많아야 10명인데, 한달에 한번 두시간동안 트래픽이 맥스 2500명 가량 되고 이때 서버가 다운까지는 아니고 매우 느려지는 접속지연이 심하게 발생합니다. 웹사이트 유지보수 업체에서 서버를 관리하고 추가개발 등을 의뢰하고 있는데요, 제 생각엔 aws ec2 클라우드로 배포하면 평소에 큰 리소스가 필요하지 않아서 싸게 운용하고 한달에 하루, 2시간만 확장해서 쓰면 25만원 내에서도 가능하지 싶은데.. 업체는 자세한 설명이 없고 현 서버의 cpu 사양을 두배로 올리겠다고 합니다. 그러면 비용이 25->40만원이 되구요 지금 평소에 필요하지도 않은 리소스 때문에 이미 서버 사양을 많이 올린 상태입니다. 그래도 예약 두시간에 지연이 심하게 발생하고 있구요..(서버 사양은 밑에 적겠습니다) 혹시 클라우드 서버의 과금에 대해 잘 아시는분이 계실까요?? 월 50만원까지는 사용이 가능할것 같은데 두시간을 위해 한달치 서버사양을 올리는게 맞는건지.. 여태껏 올려왔는데도 지연이 발생하는데 해결은 될지 답답합니다. 아래는 현재 데이터센터에서 임대하고 있는 서버컴퓨터의 사양입니다. CPU : xeon x5670 2EA(12코어 24쓰레드) 램 16기가 SSD 500GB SAS HDD 600GB

개발자

#서버

#서버배포

#서버이전

#서버-성능

#서버-트래픽

답변 1

댓글 0

조회 87

일 년 전 · 예범 님의 질문 업데이트

안녕하세요 대학생 사이드 프로젝트 ..

안녕하세요 아직 배포도 못해본 개발 초보 대학생 4학년입니다. 현재 React로 개인 웹페이지를 개발해서 배포하려고 합니다. 제가 아직 배포를 한번도 해보지 못해서 그 AWS 하면 맨날 과금된 사건, 디도스 공격된 사건 이런게 생각나고 .. 하기가 무섭네요. AWS에도 트래픽 제한 걸고 금액을 제한할 수 있는 것이 있겠죠 ,,? 첫 배포하는 개발 초보에게 어떤 영상이나 추천해주시는 경로 있으시면 부탁드립니다. 감사합니다

개발자

#react

#배포

답변 1

댓글 1

조회 203

일 년 전 · 박범수 님의 새로운 답변

IT asset management 포탈 구성 이해

안녕하세요 선배님들 제가 최근에 인턴을하면서 it asset 포탈을 구축과제를 부여받아 설계를 하고 있습니다. 먼저 it asset에 대해 공부를하며 이해를 하고 있는데 정확히 이해가 가지 않아 질문글을 올리게 되었습니다. 주로 소프트웨어 관리를 목적으로 하는데 먼저 기본적인 요청 이행 배포 모니터링 서비스 폐기 등 sw의 라이프사이클을 관리하는것까지는 이해를 했는데 느낌이 아무런 배경지식 없이 봤을때는 네이버 클라우드 플랫폼이 일종의 it asset의 일부 아닌가라는 생각이 들었습니다..(여기서 내부sw를 포함하면 그게 it asset management가 아닌가?라는 느낌입니다) (api나 sw를 신청하고 과금상황이나 상태 모니터링 서비스 버전업, 필요한 sw검색 등 이런 기능을 네이버 클라우드 플랫폼을 사용하는것이 기능적으로 상당히 유사하다고 생각이 들었습니다) 혹시 이게 제대로된 이해인지 알수있을까요????

개발자

#it-asset

#itam

#it

#자산관리

답변 1

댓글 0

조회 53

일 년 전 · mjm 님의 새로운 댓글

AWS 인스턴스 관련 질문 있습니다.

안녕하세요. 현재 토이 프로젝트로 아마존에서 서버를 하나 운영하고 있습니다. 일단 프로그램이 작동이 필요한 시간은 그냥 5분마다 한번씩만 작동되게 해주면 됩니다. 리눅스 서버에서 작동하기 때문에 crontab을 이용해서 5분마다 실행하게 할 수 있습니다. 하지만 이렇게 되면 서버를 사용하지 않는 시간 동안에도 과금되게 됩니다. 저는 그저 5분마다 한번만 실행하면 되거든요.. 조금 찾아보니 aws lambda 와 cloudwatch를 이용하면 특정 시간에 서버를 자동으로 껐다 켰다 할 수 있더군요. 이런 식으로 서버 자체를 껐다 켰다 하는 것이 나을까요? 아니면 그냥 서버는 계속 켜놓고 5분마다 프로그램만 실행되게 하는게 나을까요?? 서버를 5분마다 껐다 켰다하면 하루에만 288번, 한달에 8640번 입니다. 뭔가 불이익 같은 게 있을까요 조언 부탁 드립니다. 읽어주셔서 감사합니다 !

개발자

#aws-ec2

답변 1

댓글 1

조회 55

일 년 전 · 류호준 님의 새로운 답변

AWS관련 질문 있습니다.

안녕하세요 저는 현재 aws ec2 인스턴스 t4g.small을 무료로 사용하고 있는 초보 학부생 입니다. 이론상 한달에 750시간 무료이기 때문에 24시간 돌려놔도 무료이지만 최근에 조금 과금 된 것을 확인했습니다. 아마도 만들 때 cpu burst 무제한 모드가 설정되어 있어서 cpu credit을 계속 사용해서 과금 된 것 같은데 궁금한 점은 제 프로그램을 돌리는데 cpu 성능이 더 필요하기 때문에 burst mode가 발동 된 것인가요 아니면 그저 24시간 프로그램을 하루 종일 돌려놓았기 때문에 과금 된 것인가요?? t4g.small의 vcpu 성능을 보니 20%로 제한되어있고 사용할 수 있는 cpu수는 2개 입니다. 따라서 인스턴스 cpu 사용률을 모니터링 했을 때 최대 40%로 제한되는게 정상인 것이지요??? 제 인스턴스 cpu 사용률을 모니터링 해보니 계속 50%로 가동되고 있고 cpu credit 사용량도 꾸준하게 사용하고 있더군요. 결국 제 프로그램을 24시간 계속 가동 시키기 위해선 더 좋은 인스턴스로 바꾸거나 cpu burst가 되게 냅둬야한다고 판단했는데 제가 생각하고 있는 내용이 맞나요??

개발자

#aws-ec2

답변 1

댓글 0

조회 297

2년 전 · 커리어리 AI 봇 님의 새로운 답변

데이터 수집 시스템 조언 부탁드립니다..

안녕하세요. 현재 데이터분석가 인턴으로 회사에 들어간지가 한달이 조금 넘었습니다. 현재 회사에서 분석이 아닌, 직접 데이터를 수집하는 작업을 하고 있습니다. 제가 분석만 하다보니, 데이터를 수집하고 저장하는 작업을 처음해보고 사수도 따로 없다보니 조언을 구할 곳이 없어서 이렇게 게시물로 조언을 요청드립니다.. 지식이 부족해 다소 어렵게 설명을 드려도 이해 부탁드리며, 제 글을 보고 “저 친구는 왜 저렇게 비효율적으로 하지? 이렇게 하면 좋을텐데”라는 생각이 드신다면 바로 댓글이나 쪽지 부탁드립니다. 제가 처음 올려봐서 쪽지 기능이 있나 모르겠네요.. 먼저, 간단하게 제가 진행하고 있는 데이터 수집 절차를 설명드리겠습니다. 1. 컬럼이 한개인 4GB가 조금 넘는 데이터를 수집 코드에 불러와야 한다. 해당 데이터에는 도메인 주소가 담겨 있다. 2. 내 수집 코드는 불러온 데이터를 한행씩 조회하면서 수집을 진행한다. 3. 한 행에 있는 도메인 주소에 순서대로 http 접속을 해서 해당 도메인 주소가 사전에 설정한 특정 조건을 만족하면, 해당 도메인 주소와 사이트에 접속해서 추출한 정수형 값을 DB에 저장한다. 4. 즉, 4기가의 데이터를 불러와 한 행씩 조회해가면서 실시간으로 데이터를 db에 수집하는 코드다. 5. 24시간 동안 코드를 돌리는 수집 예상 기간은 3개월 정도이다. 다음으로는 조금 구체적인 진행 사항을 말하겠습니다. 밑에서부터 길어지니, 바쁘신 분들은 위에 주요 절차만 보시고 조언 주시면 감사하겠습니다. 1. 파이썬만 사용할 줄 알기 때문에, 파이썬을 사용하여 class로 만들어 수집 코드를 짰다. 2. 데이터의 양이 많아서 메모리 부족 오류가 빈번하게 나타나, 하둡과 아파치 스파크를 이용해봤다. 내가 조회할 데이터 파일을 하둡 HDFS에 업로드 한다음에, 아파치 스파크 클러스터를 구축했다. 그리고, pyspark 모듈을 이용해 파티션을 나눠 데이터를 불러왔다. 파티션으로 받아온 값을 리스트로 변환하여 순서대로 해당 도메인 주소로 접속하는 반복문을 진행하면서 데이터를 수집했다. 즉 파티션으로 데이터를 쪼개서 1번 파티션부터 n번 파티션까지 각각 파티션 내부에 도메인 주소 리스트가 반복문을 진행된다고 보면 된다. 각 파티션이 다른 파티션으로 전환되는 과정도 반복문으로 처리했다. 하나의 파티션 마다 내가 만든 class(도메인 리스트를 인자로 받는다)가 한번씩 실행된다고 보면 된다. 3. 수집 속도가 너무 느려서 class에 있는 수집 메소드를 멀티 스레드 방식을 이용해서 수정해주었다. 수집 속도가 매우 빨라졌다. 4. 기존에는 aws의 클라우드 db(dynamo db)를 사용했지만, 과금 문제로 인해 로컬에 db를 설치하기로 했다. 쓰기 속도가 매우 빠른 redis db를 선택했다 5. 위에서 설명한 반복문을 돌면서 조건에 일치한 도메인 주소와 정수 값은 한 행씩 redis db에 key(도메인주소) value(정수값) 형식으로 저장하도록 코드를 만들었다. 이 과정도 class 내부에 포함되어 있다. 6. redis는 on memory db이기 때문에 대용량 데이터를 영구적으로 저장하고 분석하기에 적합하지 않다고 판단해서 1시간마다 redis에 있는 데이터를 postgresql db로 옮겨주는 코드를 따로 만들었다. postgresql db에 미리 redis에서 옮겨갈 테이블을 생성해두었다. redis의 key였던 도메인 이름을 첫 번째 필드에 프리이머리 키로 저장했고 value인 정수 값을 2번 째 필드에 값으로 넣어줬다. 그리고, 마지막 필드에는 자동으로 데이터가 저장될 때, 현재 시간이 넣어지게 테이블을 만들었다. 총 3개의 열로 구성된 테이블에 1시간에 한번씩 redis에 저장해두었던 데이터가 옮겨간다고 생각하면 된다. 7. 처음 redis에 데이터를 저장할 때 ttl을 설정해서 1시간 10분이 지나면 redis db에서 데이터가 자동으로 소멸되도록 설정했으며, 만약 postgresql에 중복된 데이터가 들어간다면 자동으로 무시하고 다음 작업을 진행하도록 테이블 설정을 해줬다. 즉, 실시간으로 데이터가 수집되고 자동으로 시간이 지나면 데이터가 소멸되는 redis db에서 1시간마다 한번 postgresql로 옮겨주는 코드를 따로 만들었다. 8. 수집 코드를 spark-submit 명령문으로 실행해주었다. spark-submit 명령어 앞에 nohup을 해줘서 백그라운드에서 코드가 실행되게 해줬고, 로그 결과를 따로 파일을 만들어 저장되도록 했다. 그리고 파이썬 실행 파일 내에서도 로그를 입력하는 코드를 만들어서, 도메인의 http 접속이 성공했는지의 여부를 로그 파일에 실시간으로 입력되도록 했다. 예를 들어, http 접속이 잘 된 도메인 주소는 로그에 “INFO 도메인 주소: success” 이렇게 기록하고, 타임아웃 에러, 접속 에러, redirect 오류, db 저장 오류는 모두 종류별로 예외 처리해서 로그에서 기록되도록 코드를 구성했다. 파이썬에서 자체적으로 로그를 기록한 파일은 수집코드를 실행하면서 파티션이 전환될 때마다 하나씩 생성된다. 이제 이렇게 제가 실행할 코드는 24시간 내내 수집을 진행하는 코드 하나와 1시간에 한번 데이터를 옮겨주는 스케줄러 코드로 총 2개가 됩니다. 저는 이 코드와 수집 환경을 만들기 위해 모두 도커를 활용하였으며, 사용한 컨테이너와 부가 설명은 다음과 같습니다. spark-master: 하둡과 스파크 클러스터를 구축하는 컨테이너로 standalone모드로 spark-summit 명령어로 파이썬 파일을 실행해주었다. --conf 옵션으로 메모리, 하트비트 간격, 파티션 수 를 지정해주었다. 스파크와 하둡을 처음 사용해봐서 약간의 개념만 있는 상태에서 돌려보니 아직도 세부 설정을 제대로 이해하지 못했다. 결국 worker를 1개 생성해서 파이썬 파일을 처리하도록 하였다. 현재 대다수의 오류가 이 컨테이너에서 발생한다. redis: spark-master에서 실시간으로 실행되고 있는 수집 코드에서 선별된 데이터들이 redis 컨테이너에 있는 redis db에 저장된다. postgresql: 1시간에 한번 redis에 있는 데이터를 옮기기 위해 postgresql 컨테이너를 생성했다. schduler: 1시간에 한번 postgresql 컨테이너에서 작동하고 있는 postgresql db에 redis 데이터를 옮겨주기 위한 스캐줄러 코드를 실행할 컨테이너다. redis-monitor: 실시간으로 redis db를 모니터링 하기 위해 redis-monitor 컨테이너를 생성하여 웹에서 모니터링 툴인 Redis-Stat에 접속한다. postgre-monitor: 마찬가지로, 실시간으로 postgresql db를 모니터링 하기 위해 생성한 컨테이너로 웹에서 Pgadmin4를 사용할 수 있다. 이렇게 총 6개의 컨테이너를 생성하여 내 수집 코드를 실행했는데, 여기서 많은 문제가 발생했습니다. 제가 가진 의문과 문제를 나열하자면 다음과 같습니다. 1. 먼저, 수집 코드를 실행한 다음에 스케줄러 코드를 실행해주었는데, (서로 독립된 컨테이너에서 실행) 두 코드가 DB에 동시에 접속할 때, 충돌이 일어날 가능성이 있지 않을까? 2. 수집 코드를 실행하고 몇분이 지나면 터미널이 먹통이 되고, 코드가 더 이상 실행이 안되는 일이 빈번하게 발생한다. 너무 많은 자원을 사용하고 있어서 그런건가.. 컴퓨터 사양이 안좋아서 그런건가 원인을 잘 모르겠다.. 3. spark-submit 로그를 보면 내 노트북에서는 안그러는데, 대용량 파일을 불러오는 과정에서 파티션 별로 데이터를 정리할 때 오류가 빈번하게 발생한다 . executor가 통신이 안된다는 경고 메세지도 자주 나오고, 특히, Remote RPC client disassociated 라는 오류가 가장 많이 나온다. 내 컴퓨터보다 높은 사양의 클러스터를 구축하려고 해서 그런가. 검색해보니 네트워크 문제이거나, 컨테이너에 할당한 자원을 초과해서 그런거라고 한다. 대용량 데이터를 불러오는 다른 방법을 강구해봐야되나 고민하고 있다. “그래서 요점이 뭐야” 라고 물어보신다면, 저는 현직에서 활동하고 계신 데이터 엔지니어, 백앤드 개발자 분들이 제 글을 본다면 “아니 굳이 왜 그렇게 하지? 이렇게 쉬운 방법이 있는데” 또는 “저기서 이렇게도 해봤나?, 이러면 안정적으로 코드를 돌릴 수 있을텐데”라는 반응으로 갈릴 것 같다고 생각합니다.

개발자

#데이터베이스

#데이터수집

#아파치스파크

#redis

#python

답변 2

댓글 0

추천해요 7

조회 884

2년 전 · Teddy 님의 새로운 답변

프론트엔드 개발자 공부

안녕하세요 저는 고졸인 24살 청년입니다. 하고 싶을 것을 찾아 좋은 직장에 들어가야겠다 싶은 생각에 이것저것 찾아보다 한창 붐이 일어났던 개발자를 접하게 되었습니다. 그러던 중 스파르타코딩 측에서 진행하는 국비지원 프로그램인 '내일 배움단' 에서 프론트엔트 개발 공부를 아주 살짝 입문 해보았습니다. 그때 아직 초입이라 더 그랬겠지만 흥미를 느끼게 되었고, IT 직무 쪽에서는 가장 학력을 따지지 않고 본인의 능력을 중요시 한다는 말들이 들려와 정말 모든 사람과의 연락도 다 끊고 몰두 할 생각으로 요즘 많이 보이는 부트캠프를 들어 갈 생각을 하고 있습니다. 그러나 제 여건 상 너무 생각보다 많은 과금은 할 수 없는 상황이고, 기간도 환경이 그리 여유롭지 않아 찾아본 부트캠프 중 가장 저렴하고 기간도 짧은 항해99를 신청 해보려 합니다. 그런데 교육 쪽에서 오래 계셨던 지인께서는 항해99같은 녹화 된 비디오 영상 보다는 더 다른 좋은 것들이 있지 않겠냐고 하셔서 다른 것을 더 찾아보려는데 어떻게 찾아야 할 지 어디가 더 좋을지 감이 안잡히네요.. 혹시 부트캠프 관련 아시는 정보 있다면 같이 공유 해주실 수 있을까요...

개발자

#부트캠프

답변 5

댓글 0

추천해요 3

조회 1,255