안녕하세요? DFOCUS의 데이터 전문가 Qrator입니다. 

최근 몇년간 "BIG DATA"의 분석과, 활용에 대한 이슈가 뜨거웠습니다.

지금이야 흔한 개념으로 자리잡았지만, 전에는 어떘을까요?

'빅데이터'라는 개념이 자리 잡기전에도 이미 대용량 데이터는 존재했습니다.

성능좋고 비싼 시스템, 수퍼컴퓨터, 하지만 이 모든 방법들에는 한계가 존재했습니다.

따라서 기업은 

가치있다고 판단되는 몇가지 데이터에만 집중하여 분석해야 했습니다.

하드웨어적인 자원도 부족하고, 관련 기술이나 엔지니어도 부족했기 때문입니다.

더욱이 그것들을 보완해 줄 수 있을 만큼의 예산도 부족했습니다.

그렇기 때문에 기존 데이터를 비용대비 효율적으로 처리할 수 있는 방법이 꾸준히

요구되었습니다.

하둡이 탄생하게 되었습니다.

하둡은 여러대의 저렴한 컴퓨터를 하나의 컴퓨터 처럼 묶어 

대용량 데이터를 처리하는 "분산시스템"입니다.

이러한 하둡의 개발로 인해 빅데이터 라는 개념이 이렇게

대중화 되는 시작이 된 것입니다.

하지만, 이도 완벽한 것은 아닌지라

HIVE, PIG, MAHOUT 솔루션등을 총괄하고, 부족한 기능을 보완하기 위한

"하둡 에코시스템"이 필요합니다.

이는 별도의 환경 설정 작업이 동반되는 작업입니다.

하지만, Information Builders의 iWay Data Hadoop Manaer

별도의 프로그램의 설치 없이 이들이 수행하고 있는 기능 모두를 지원할 수 있습니다.

새로운 다수의 프로그램을 설치하여 조율하는 번거로운 과정에서

자유로워 지는 것 입니다. 나아가

Eclipse 기반의 쉬운 인터페이스는 개발자들의 시간또한 절약해 줍니다.

만약 더 많이 알고 싶으시다면,

홈페이지(클릭)

혹은

공식 Youtube 채널(클릭)

에서 더 많은 교육자료 및 자세한 설명을 찾아보실 수 있습니다.

감사합니다.

+ Recent posts