< 빅데이터 분석 위한 대규모 확장형 스토리지··· ‘데이터 레이크’ A to Z > 2011년, 당시 비즈니스 인텔리전스 기업 펜타호(Pentaho)의 CTO였던 제임스 딕슨이 ‘데이터 레이크(Data Lake)’라는 용어를 만들었다. 그는 당시 인기 있었던 ‘데이터 마트(Data Mart)’에서 흔히 나타났던 정보 사일로와 대비되는 개념으로 데이터 레이크를 설명했다. 그 이후로 데이터 레이크는 꾸준히 진화했으며, 이제는 빅데이터 저장과 애널리틱스 측면에서 데이트 웨어하우스(Data Warehouse)와 경쟁하고 있다. 오늘날 다양한 도구와 제품이 데이터 레이크에서의 더 빠른 SQL 쿼리를 지원한다. 또 3대 주요 클라우드 벤더는 데이터 레이크 스토리지 및 분석을 제공한다. 한편에서는 거버넌스, 보안, 분석과 알맞은 스토리지를 결합하는 새로운 ‘데이터 레이크하우스(Data Lakehouse)’ 개념도 등장했다. 이 글은 데이터 레이크에 관한 개괄적인 이해를 돕기 위해 작성됐다. 정의에서부터 사용 방법, 데이터 레이크가 데이터 스웜(Data Swamp)이 되지 않도록 하는 방법 등을 살펴본다. > 데이터 레이크 개념 ‘데이터 레이크’는 기본적으로 분석 준비가 완료될 때까지 데이터를 보관하는 단일 저장소를 의미한다. 모든 데이터 담는 경우도 있지만, 데이터 웨어하우스에 맞지 않는 데이터만을 보관하기도 한다. 대개 데이터 레이크는 이미지와 비디오 등의 바이너리 데이터, PDF 문서 등의 비구조화 데이터, CSV와 JSON 파일 등의 반구조화 데이터뿐만 아니라 일반적으로 관계형 데이터베이스로부터 얻는 구조화 데이터를 모두 담아낸다. > 데이터 레이크 vs 데이터 웨어하우스 • 데이터 소스 : 데이터 레이크를 위한 일반적인 데이터 소스에는 로그 파일, 클릭 스트림에서 얻은 데이터, 소셜 미디어 게시물, 인터넷 연결 장치로부터 얻은 데이터가 포함된다. 데이터 웨어하우스는 일반적으로 트랜잭션 데이터베이스, 비즈니스 부문 애플리케이션, 분석을 위한 운영 데이터베이스로부터 추출된 데이터를 저장한다. • 스키마 전략 : 데이터 레이크를 위한 데이터베이스 스키마는 일반적으로 분석 시에 적용되며, 이것을 ‘SoR(Schema-on-Read)’이라 한다. 기업 데이터 웨어하우스의 데이터베이스 스키마는 일반적으로 데이터 스토어 생성 전에 고안되며 데이터 입력 과정에서 적용된다. 이것을 ‘SoW(Schema-on-Write)’라고 부른다. • 스토리지 인프라 : 데이터 웨어하우스는 쿼리 결과를 신속하게 제공하기 위해 값비싼 RAM와 SSD 디스크 용량이 상당한 경우가 많다. 반면 데이터 레이크는 저렴한 회전식 디스크를 사용하는 경우가 많다. 데이터 웨어하우스와 데이터 레이크는 모두 MPP(Massively Parallel Processing)를 사용하여 SQL 쿼리 속도를 높인다. • 미가공 vs 큐레이트(Curated) 데이터 : 데이터 웨어하우스의 데이터는 데이터 웨어하우스를 조직의 ‘단일 신뢰원’으로 취급할 수 있는 수준까지 큐레이팅 해야 한다. 반면 데이터 레이크의 데이터는 큐레이팅이 가능하거나 불가능할 수 있다. 데이터 레이크는 일반적으로 이후 분석을 위해 필터링 및 전환이 가능한 미가공 데이터부터 시작한다. • 사용자 : 데이터 웨어하우스 사용자는 일반적으로 비즈니스 분석가이다. 데이터 레이크 사용자는 최소한 처음에는 데이터 사이언티스트 또는 데이터 엔지니어인 경우가 많다. 비즈니스 분석가는 데이터가 큐레이팅 된 후 액세스하는 것이 일반적이다. • 분석 유형 : 일반적인 데이터 웨어하우스 분석에는 비즈니스 인텔리전스, 배치 보고, 시각화가 포함되어 있다. 데이터 레이크의 경우 일반적인 분석에는 머신러닝, 예측 분석, 데이터 디스커버리(Data Discovery), 데이터 프로파일링(Data Profiling)이 포함된다. 그렇다면 데이터 마트는? 기업의 모든 관계형 데이터를 분석에 적합한 형태로 결합하는 데이터 웨어하우스와는 달리 ‘데이터 마트’는 단일 부서 또는 사업부로부터 얻은 데이터로 제한되는 분석 데이터베이스이다. 데이터 마트는 부서와 관련된 데이터만 포함시켜 효율적인 분석을 제공한다. 그런 의미에서 선천적으로 사일로화 되어 있다고 볼 수 있다. > 데이터 레이크에서 더 빠른 SQL 쿼리 데이터 레이크에 미가공 데이터를 저장할 때, 데이터를 데이터 사이언티스트 또는 데이터 엔지니어가 처리할 때까지 비즈니스 분석가에게 무용지물일 수도 있다. 필터링 및 데이터 전환 외에 데이터 레이크는 데이터 카탈로그, 데이터 보안, 스키마 정의가 필요하다. 이런 특징이 없는 데이터 레이크에 대한 표현이 바로 ‘데이터 스웜’이다. 다행히도 데이터 레이크에 있는 데이터를 필터링 및 정리하는 데 도움이 되는 많은 도구가 있다. 한 예로, 하이브(Hive) 메타스토어를 ORC 형식으로 생성하여 스키마의 필요성을 해결할 수 있다. 구성이 되면 메타스토어는 프레스토(Presto) 같은 대규모 병렬 SQL 엔진을 통해 고속 SQL 쿼리를 지원한다(참고로 ORC(Optimized Row Columnar) 형식은 하이브에 최적화된 압축 칼럼 스토어이며, 프레스토와 잘 호환된다). 아파치 스파크(Apache Spark)는 또 다른 대규모 병렬 SQL 엔진이다. ORC 형식과 호환될 수 있지만 또 다른 압축 칼럼 스토어인 파케이(Parquet)와 더욱 잘 호환된다. 스파크는 파케이 파일에서 수직 및 수평 파티셔닝을 수행하여 필요한 데이터만 읽어야 하고 관련성이 없는 데이터를 건너뛸 수 있는 쿼리 플랜을 생성할 수 있다. > 데이트 레이크하우스 스파크와 머신러닝 플로우(MLflow)를 지원하는 기업 데이터브릭스(Databricks)는 ‘데이트 레이크하우스’라는 것을 주창한다. 데이트 레이크하우스는 데이트 웨어하우스와 데이트 레이크하우스의 장점을 하나의 단순한 플랫폼으로 통합하여 모든 데이터, 분석, AI 사용 사례를 처리한다. 모든 데이터 유형을 효율적으로 처리하고 모든 데이터 및 클라우드 플랫폼에서 하나의 공통 보안 및 거버넌스 접근방식을 적용하는 신뢰할 수 있는 개방형 데이터 기초에 기반한다. 데이터브릭스가 오픈소스로 공개한 델타 레이크(Delta Lake)는 데이터 레이크에 있는 데이터에 집적 신뢰성과 높은 성능을 제공하여 레이크하우스의 기초를 형성한다. 데이터브릭스 레이크하우스 플랫폼(Databricks Lakehouse Platform)에는 데이터 및 AI를 위한 미세 거버넌스를 제공하는 유니티 카탈로그(Unity Catalog)가 포함되어 있다. 데이터브릭스는 자사의 데이터 레이크하우스가 데이터 웨어하우스보다 12배 높은 가성비를 제공한다고 주장하고 있다. > 온프레미스 및 퍼블릭 클라우드의 데이터 레이크 역사적으로, 데이터 레이크는 상품 컴퓨터로 구성된 아파치 하둡(Hadoop) 클러스터와 HDFS(Hadoop Distributed File System)를 사용하여 온프레미스로 구현된 형태이곤 했다. 하둡 클러스터는 한 때 클라우데라(Cloudera), 호튼웍스(Hortonworks) 등에 대형 비즈니스였다. 클라우데라와 호튼웍스는 2018년에 합병되었으며, 이를 통해 시장의 방향을 알 수 있다. 그동안 클라우드가 바뀌었으며, 특히, 초대형 퍼블릭 클라우드 제공업체인 AWS, 마이크로소프트 애저, GCP 등이 그랬다. 이 3개 클라우드 제공업체는 아마존 S3 및 아마존 EMR(Amazon Elastic MapReduce), ADLS(Azure Data Lake Store), GCS(Google Cloud Storage) 등의 데이터 레이크 스토리지 제품을 제공한다. 또한 데이터 수집, 데이터 처리, 분석, 머신 러닝을 위한 서비스를 제공한다. 데이터센터에서 하둡 클러스터를 관리하는 것보다 클라우드 데이터 레이크를 생성, 관리, 확장하기가 훨씬 쉽다. 단점은 장기적으로 운영 지출이 결국 상당해질 수 있다는 점이다. > 데이터 레이크를 위한 분석 및 머신러닝(ML) SQL은 데이터를 분석하는 수단 중 하나일 뿐이지만 꽤 중요하며 첫 번째 단계인 경우가 많다. 또 파워 BI(Power BI), 타블로(Tableau), 클릭(Qlik) 등의 비즈니스 인텔리전스 도구, 주피터(Jupyter), 제펠린(Zeppelin), 스파크(Spark) 노트북, SKL(SciKit-Learn), 스파크ML(SparkML), KNIME 등의 머신러닝 도구, 텐서플로우(TensorFlow)나 파이토치(PyTorch) 등의 딥러닝 도구가 널리 활용된다. 초대형 클라우드 제공업체들은 데이터 레이크에 연결된 자체적인 분석 및 머신러닝 도구가 있다. 아마존 아테나(Amazon Athena)는 프레스토와 하이브를 사용하여 아마존 S3에서 데이터에 대한 SQL 쿼리를 수행한다. 아마존 EMR은 아파치 스파크, 아파치 하이브, 프레스토 등의 오픈소스 분석 프레임워크를 사용하여 대규모 분산형 데이터 처리 작업, 양방향 SQL 쿼리, 머신 러닝 애플리케이션을 실행하기 위한 클라우드 빅데이터 플랫폼이다. ASM(Amazon SageMaker)은 머신러닝 모델을 구축, 훈련, 배치하도록 돕는 완전 관리형 서비스이다. 마이크로소프트의 ADLA(Azure Data Lake Analytics)는 빅데이터를 간소화하고 SQL과 C#이 조합된 U-SQL을 사용하는 구식 주문식(서버리스(Serverless)) 분석 작업 서비스이다. ADLA는 데이터 통합, 기업 데이터 웨어하우징(Warehousing), 빅데이터 분석을 결합한 무제한 분석 서비스인 ASS(Azure Synapse Analytics)로 대체되고 있다. 이를 통해 대규모로 서버리스 또는 전용 옵션을 사용하여 데이터를 원하는 조건으로 쿼리 처리할 수 있다. ASS는 데이터 레이크, 기업 데이터 웨어하우스, 기존 운영 데이터 쿼리 기능을 결합하며, ADLA뿐 아니라 데이터 웨어하우스의 데이터와 코드를 자동으로 마이그레이션할 수 있다. ASS는 또 AML(Azure Machine Learning), ACS(Azure Cognitive Services), 파워 BI와 심층적으로 통합되어 있다. 구글의 GCS는 빅쿼리(BigQuery, 데이터 웨어하우스), 데이터프록(Dataproc, 하둡 생태계), 데이터플로(Dataflow, 서버리스 스트리밍 분석), Video Intelligence API, Cloud Vision API, AI 플랫폼 등 여러 강력한 구글 클라우드 서비스와의 네이티브 통합을 제공한다. > 결론 데이터 레이크는 하둡 클러스터와 맵리듀스(MapReduce) 시대 이후로 훨씬 유용해졌다. 프레스토와 아파치 스파크는 인메모리 및 MPP와 하이브 기반 스키마 덕분에 맵리듀스 보다 훨씬 빠른 SQL 프로세서를 제공한다. 클라우드 기반 데이터 레이크는 상품 컴퓨터로 구성된 구내 클러스터보다 생성, 관리, 확장이 훨씬 쉽고 빠르다. 그리고 클라우드 데이터 레이크는 광범위한 분석 및 인공지능 도구와 긴밀하게 통합된다. 원문보기: https://www.ciokorea.com/news/235019?page=0,1#csidx6ec8c7518998f70933a2cde839e5bbb

빅데이터 분석 위한 대규모 확장형 스토리지··· ‘데이터 레이크’ A to Z

CIO Korea

빅데이터 분석 위한 대규모 확장형 스토리지··· ‘데이터 레이크’ A to Z

다음 내용이 궁금하다면?

또는

이미 회원이신가요?

2022년 5월 4일 오전 5:22

댓글 0