사용자 도구

사이트 도구


빅데이터

문서의 이전 판입니다!


빅데이터

빅데이터의 정의와 핵심 특성

빅데이터(Big Data)는 단순한 데이터의 양적 팽창을 넘어, 기존의 데이터베이스 관리 시스템으로는 감당하기 어려운 거대한 규모와 복잡한 구조를 가진 데이터 집합을 의미한다. 이는 디지털 환경에서 생성되는 모든 형태의 정보를 포괄하며, 정보 기술의 비약적인 발전과 클라우드 컴퓨팅의 확산에 따라 현대 사회의 핵심적 자산으로 부상하였다. 학술적으로 빅데이터는 데이터 그 자체뿐만 아니라, 이러한 대규모 데이터를 수집, 저장, 관리, 분석하여 유의미한 통찰을 도출하는 기술적 패러다임과 프로세스 전체를 포함하는 포괄적인 개념으로 정의된다. 국제전기통신연합(ITU-T)은 빅데이터를 대규모 데이터를 수집, 저장, 관리, 분석 및 시각화할 수 있는 능력을 갖춘 기술 체계로 규정하며, 특히 실시간 분석과 데이터의 다양성을 처리할 수 있는 역량을 강조한다1). 이러한 정의는 빅데이터가 단순한 정보의 덩어리가 아니라, 조직의 의사결정을 최적화하고 새로운 사회적·경제적 가치를 창출하기 위한 전략적 도구임을 시사한다.

빅데이터의 본질을 규정하는 가장 대표적인 기준은 2001년 더그 레이니(Doug Laney)가 제시한 규모(Volume), 속도(Velocity), 다양성(Variety)이라는 세 가지 차원, 즉 ‘3V’ 모델이다2). 규모는 데이터의 물리적 양을 의미하며, 테라바이트(TB)나 페타바이트(PB) 단위를 넘어 기하급수적으로 증가하는 데이터의 크기를 지칭한다. 속도는 데이터가 생성되고 유통되며 처리되는 속도를 의미하는데, 사물인터넷(IoT) 기기나 소셜 네트워크 서비스에서 발생하는 데이터처럼 실시간으로 쏟아지는 정보를 즉각적으로 처리해야 하는 필요성을 반영한다. 다양성은 데이터의 형태가 정형화된 수치 데이터에 국한되지 않고 텍스트, 영상, 음성, 로그 기록 등 비정형 데이터반정형 데이터로 확장되었음을 뜻한다. 기존의 관계형 데이터베이스가 구조화된 데이터 처리에 최적화되어 있었다면, 빅데이터 환경에서는 이러한 비정형 정보를 효과적으로 통합하고 분석하는 능력이 필수적으로 요구된다.

기술의 발전과 활용 범위의 확장에 따라 초기 3V 모델에 정확성(Veracity)과 가치(Value)를 더한 ‘5V’ 개념이 널리 통용되기 시작하였다. 정확성은 데이터의 품질과 신뢰성을 의미한다. 빅데이터는 그 원천이 매우 다양하고 노이즈가 섞일 가능성이 크기 때문에, 분석 결과의 타당성을 확보하기 위해서는 데이터의 정교한 정제와 검증 과정이 수반되어야 한다. 미국 국립표준기술연구소(NIST)는 빅데이터가 효율적인 저장과 분석을 위해 확장 가능한 아키텍처를 요구하며, 데이터의 가변성과 정확성이 분석 모델의 성능에 결정적인 영향을 미친다는 점을 명시하고 있다3). 가치는 빅데이터 분석을 통해 실제로 얻을 수 있는 유용성을 뜻하며, 이는 기업의 수익 증대나 공공 정책의 효율성 제고와 같은 실질적인 성과로 연결되어야 함을 의미한다.

빅데이터와 기존 데이터 관리 체계의 결정적인 차이는 데이터 처리 방식의 유연성과 확장성(Scalability)에 있다. 전통적인 방식이 미리 정의된 데이터 모델에 맞추어 데이터를 수집하는 ‘선(先) 모델링 후(後) 저장’ 방식이었다면, 빅데이터 체계는 방대한 데이터를 우선 저장한 뒤 분석 목적에 따라 구조를 정의하는 방식을 취한다. 이를 위해 여러 대의 저사양 서버를 연결하여 성능을 높이는 수평적 확장(Scale-out) 방식의 분산 컴퓨팅 기술이 핵심적으로 활용된다. 결과적으로 빅데이터는 과거에는 기술적 한계로 인해 버려졌던 방대한 정보들로부터 새로운 상관관계를 발견하게 함으로써, 인과관계 중심의 과학적 방법론을 데이터 중심의 예측 모델링으로 전환하는 패러다임(Paradigm)의 변화를 이끌어냈다.

빅데이터의 학술적 정의

단순한 용량의 크기를 넘어 복잡성과 처리 속도를 포함하는 빅데이터의 다각적인 정의를 설명한다.

빅데이터의 구성 요소

빅데이터의 본질을 규정하는 규모, 속도, 다양성을 비롯하여 신뢰성과 가치 등의 확장된 개념을 다룬다.

기본적 특성인 삼차원 요소

데이터의 양적 팽창, 생성 및 처리의 실시간성, 형태의 다양성이라는 세 가지 핵심 축을 분석한다.

확장된 특성과 가치 창출 요소

데이터의 정확성과 복잡성 속에서 추출되는 경제적, 사회적 가치에 대해 논한다.

데이터의 유형별 분류

빅데이터를 구성하는 데이터는 그 형태와 구조화 정도에 따라 정형 데이터(Structured Data), 반정형 데이터(Semi-structured Data), 비정형 데이터(Unstructured Data)로 분류된다. 전통적인 정보 시스템에서 다루던 데이터가 주로 고정된 필드에 저장되는 정형 데이터에 국한되었다면, 현대의 빅데이터 환경은 고정된 형식이 없는 비정형 데이터의 비중이 압도적으로 높다는 점이 특징이다. 이러한 유형별 분류는 데이터의 저장 방식, 처리 속도, 그리고 분석 기법을 결정하는 핵심적인 기준이 된다.

정형 데이터는 미리 정해진 형식과 구조에 따라 저장된 데이터를 의미한다. 이는 주로 관계형 데이터베이스(Relational Database Management System, RDBMS)의 테이블 형태로 관리되며, 고정된 스키마(Schema)를 가진다. 각 데이터 요소는 명확한 의미를 지닌 열(Column)과 행(Row)으로 구성되어 있어, 구조화 질의 언어(Structured Query Language, SQL)를 통한 검색 및 연산이 매우 용이하다. 전사적 자원 관리(ERP)나 고객 관계 관리(CRM) 시스템에 저장된 수치 데이터, 회계 기록 등이 대표적인 사례이다. 정형 데이터는 데이터의 일관성과 무결성을 유지하기에 유리하지만, 급격히 변화하는 데이터 구조를 수용하기에는 유연성이 부족하다는 한계가 있다.

반정형 데이터는 정형 데이터처럼 엄격한 스키마를 따르지는 않으나, 데이터 내부에 구조를 설명하는 메타데이터(Metadata)나 태그를 포함하고 있는 형태를 말한다. 이는 데이터의 내용과 구조가 함께 저장되어 있어 별도의 스키마 정보 없이도 데이터의 의미를 파악할 수 있는 자가 구조화(Self-describing) 특성을 지닌다. 대표적인 형식으로는 XML(Extensible Markup Language), JSON(JavaScript Object Notation), HTML(HyperText Markup Language) 등이 있다. 반정형 데이터는 웹 로그, 센서 데이터, 응용 프로그램 인터페이스(Application Programming Interface, API) 통신 등에서 널리 사용되며, 정형 데이터보다 유연하고 비정형 데이터보다 구조적인 분석이 가능하다는 장점이 있다.

비정형 데이터는 고정된 구조나 형식이 전혀 없는 데이터를 일컫는다. 현대 빅데이터의 약 80% 이상을 차지하는 것으로 알려진 이 유형은 텍스트 문서, 이메일, 소셜 네트워크 서비스(SNS) 게시글과 같은 언어 데이터뿐만 아니라 이미지, 오디오, 비디오와 같은 멀티미디어 데이터를 모두 포함한다. 비정형 데이터는 데이터 자체만으로는 의미 있는 정보를 즉각적으로 추출하기 어려우며, 이를 분석하기 위해서는 자연어 처리(Natural Language Processing), 컴퓨터 비전(Computer Vision), 음성 인식 등 고도화된 인공지능 기술이 필수적으로 요구된다. 비정형 데이터는 분석의 난도가 높지만, 인간의 감정이나 사회적 현상을 가장 풍부하게 담고 있어 높은 잠재적 가치를 지닌다.

데이터의 유형별 분류는 단순히 형태의 차이를 넘어, 데이터 관리 체계의 패러다임 변화를 시사한다. 과거에는 정형 데이터를 중심으로 한 데이터 웨어하우스(Data Warehouse) 구축이 주를 이루었으나, 현재는 다양한 형태의 원시 데이터를 가공 없이 저장하는 데이터 레이크(Data Lake)의 중요성이 증대되고 있다. 따라서 서로 다른 구조를 가진 정형, 반정형, 비정형 데이터를 통합적으로 수집하고 결합하여 분석하는 능력은 빅데이터를 통한 통찰 도출의 핵심 역량이라 할 수 있다.

빅데이터의 역사적 배경과 발전 과정

인류 역사에서 데이터의 축적은 문명의 발상과 궤를 같이하나, 현대적 의미의 빅데이터가 등장하게 된 배경은 20세기 후반 정보 기술의 비약적 발전과 밀접하게 연관된다. 전통적인 데이터 관리 체계는 관계형 데이터베이스 관리 시스템(Relational Database Management System, RDBMS)을 중심으로 정형화된 데이터를 효율적으로 저장하고 검색하는 데 집중하였다. 그러나 1990년대 월드 와이드 웹(World Wide Web, WWW)의 대중화는 데이터 생성의 주체를 소수의 기관에서 불특정 다수의 개인으로 확장하며 데이터의 양적 팽창을 촉발하였다. 웹 브라우징 로그, 전자 상거래 기록, 이메일 등에서 발생하는 데이터는 기존 데이터베이스 시스템이 수용할 수 있는 임계치를 넘어서기 시작하였으며, 이는 데이터 관리의 패러다임을 근본적으로 변화시키는 계기가 되었다.

빅데이터의 개념적 기틀은 2001년 메타그룹(META Group)의 분석가 더그 레이니(Doug Laney)가 제시한 ’3V 모델’을 통해 구체화되었다. 그는 데이터 관리의 도전 과제를 규모(Volume), 속도(Velocity), 다양성(Variety)의 세 가지 차원으로 정의하였다. 이후 데이터의 기하급수적 증가를 설명하기 위해 지수함수적 모델이 자주 인용되는데, 특정 시점 $ t $에서의 데이터 총량 $ D(t) $는 초기 데이터량 $ D_0 $와 성장률 $ k $에 대하여 다음과 같은 관계식으로 나타낼 수 있다. $$ D(t) = D_0 e^{kt} $$ 이러한 증가 추세는 2000년대 중반 소셜 네트워크 서비스(Social Network Service, SNS)의 확산과 스마트폰의 보급으로 인해 더욱 가속화되었다. 텍스트뿐만 아니라 위치 정보, 이미지, 영상 등 비정형 데이터가 폭증하면서, 이를 처리하기 위한 기술적 돌파구가 절실해졌다.

빅데이터가 기술적 실체로서 정착하게 된 결정적 전환점은 구글(Google)이 발표한 일련의 논문들이었다. 2003년 ‘구글 파일 시스템(Google File System, GFS)’과 2004년 ’맵리듀스(MapReduce)’ 논문은 저사양의 범용 서버들을 대규모로 연결하여 데이터를 분산 저장하고 병렬로 처리하는 혁신적인 방법론을 제시하였다4). 이러한 기술적 성과는 오픈 소스 프로젝트인 아파치 하둡(Apache Hadoop)으로 이어졌으며, 기업과 연구 기관이 막대한 비용을 들이지 않고도 대규모 데이터를 다룰 수 있는 하부 구조를 제공하였다. 데이터 관리 기술의 세대별 변천 과정은 아래 표와 같이 정리할 수 있다.

구분 1세대 (전통적 관리) 2세대 (과도기) 3세대 (빅데이터 패러다임)
주요 데이터 정형 데이터 (수치, 텍스트) 웹 로그, 반정형 데이터 비정형 데이터 (영상, 센서, SNS)
저장 기술 단일 서버 기반 RDBMS 데이터 웨어하우스(Data Warehouse, DW) 분산 파일 시스템 (HDFS 등)
처리 방식 중앙 집중형 처리 제한적 병렬 처리 대규모 병렬 분산 처리
핵심 가치 데이터의 무결성 및 관리 비즈니스 인텔리전스(Business Intelligence, BI) 실시간 통찰 및 예측 분석

2010년대에 접어들어 빅데이터는 단순한 기술적 유행을 넘어 과학적 탐구의 새로운 방법론으로 자리 잡았다. 짐 그레이(Jim Gray)는 과학의 역사를 이론, 실험, 시뮬레이션의 단계를 거쳐 ’데이터 집약적 과학(Data-Intensive Science)’의 단계로 진입하였다고 규정하며 이를 제4의 패러다임(The Fourth Paradigm)이라 명명하였다5). 이는 가설을 세우고 검증하는 전통적인 연역적 방식에서 벗어나, 방대한 데이터 속에서 패턴을 발견하고 상관관계를 도출하는 귀납적 탐색이 지식 창출의 핵심이 되었음을 의미한다. 오늘날 빅데이터는 인공지능(Artificial Intelligence) 및 기계 학습(Machine Learning)의 비약적 발전을 뒷받침하는 핵심 자산으로 기능하며, 현대 사회의 의사결정 구조를 데이터 중심으로 재편하고 있다.

디지털 정보량의 기하급수적 증가

인터넷의 보급과 사물인터넷 기기의 확산이 데이터 생성 방식에 미친 영향을 분석한다.

데이터 저장 및 처리 기술의 진화

저장 매체의 단가 하락과 컴퓨팅 성능의 향상이 빅데이터 시대를 가능하게 한 기술적 토대를 설명한다.

데이터 중심 패러다임의 전환

이론과 실험 중심의 과학에서 데이터 기반의 과학적 탐구로 변화하는 과정을 다룬다.

빅데이터 처리 및 관리 기술

거대한 데이터를 효율적으로 수집, 저장, 처리하기 위한 기술적 하부 구조와 프레임워크를 고찰한다.

분산 컴퓨팅과 파일 시스템

여러 대의 컴퓨터를 연결하여 대규모 데이터를 분산 저장하고 관리하는 기술적 원리를 다룬다.

대규모 병렬 처리 프레임워크

데이터를 작은 단위로 나누어 동시에 처리함으로써 연산 속도를 극대화하는 소프트웨어 구조를 설명한다.

배치 처리 방식의 원리와 응용

대량의 데이터를 일정 기간 모아 한꺼번에 처리하는 고전적 방식의 효율성을 논한다.

실시간 스트리밍 처리 기술

생성과 동시에 끊임없이 유입되는 데이터를 즉각적으로 분석하는 기술적 기법을 다룬다.

비관계형 데이터베이스 시스템

유연한 데이터 구조를 지원하여 비정형 데이터를 효율적으로 관리하는 새로운 데이터베이스 체계를 소개한다.

빅데이터 분석 방법론

빅데이터 분석 방법론은 방대한 양의 원시 데이터(raw data)로부터 유의미한 패턴, 상관관계, 그리고 통찰을 도출하기 위해 통계학, 수학, 컴퓨터 과학의 원리를 체계적으로 적용하는 일련의 공정을 의미한다. 이는 단순히 데이터를 요약하는 수준을 넘어, 복잡한 데이터 구조 속에 숨겨진 가치를 발굴하여 의사결정의 객관성을 확보하고 미래의 불확실성을 최소화하는 데 목적이 있다. 빅데이터 분석은 데이터의 규모(Volume), 속도(Velocity), 다양성(Variety)이라는 물리적 한계를 극복하기 위해 기존의 전통적인 통계학적 접근법에 분산 컴퓨팅 기술과 고도화된 알고리즘을 결합한 형태를 띤다.

빅데이터 분석의 수행 과정은 일반적으로 표준화된 방법론을 따른다. 대표적인 모델인 CRISP-DM(Cross-Industry Standard Process for Data Mining)은 비즈니스 이해, 데이터 이해, 데이터 준비, 모델링, 평가, 전개라는 6단계의 순환적 절차를 제시한다. 반면 SAS 인스티튜트가 제안한 SEMMA(Sample, Explore, Modify, Model, Assess) 방법론은 데이터 마이닝의 기술적 측면에 집중하여 샘플링부터 평가에 이르는 5단계를 강조한다6). 이러한 방법론들은 분석가가 데이터의 편향을 방지하고 분석 결과의 재현성과 신뢰성을 확보할 수 있도록 돕는 체계적 가이드라인 역할을 수행한다.

분석의 수준과 목적에 따라 빅데이터 분석은 크게 네 가지 유형으로 분류된다. 첫째, 기술적 분석(Descriptive Analytics)은 과거의 데이터를 요약하여 ’무엇이 일어났는가’를 파악하는 가장 기초적인 단계이다. 둘째, 진단적 분석(Diagnostic Analytics)은 데이터 간의 상관관계를 탐색하여 ’왜 일어났는가’에 대한 원인을 규명한다. 셋째, 예측적 분석(Predictive Analytics)은 통계적 모델과 기계 학습 알고리즘을 활용하여 과거 패턴을 바탕으로 미래의 발생 가능성을 수치화한다. 마지막으로 처방적 분석(Prescriptive Analytics)은 예측된 결과를 바탕으로 최적의 의사결정 대안을 제시하는 최고 수준의 분석 단계이다.

빅데이터 분석의 핵심 기법 중 하나인 회귀 분석(Regression Analysis)은 종속 변수 $ Y $와 하나 이상의 독립 변수 $ X $ 사이의 관계를 수학적 모형으로 정립한다. 단순 선형 회귀 모델은 다음과 같은 수식으로 표현된다.

$$ Y = \beta_0 + \beta_1 X + \epsilon $$

여기서 $ _0 $는 절편, $ _1 $은 기울기, $ $은 오차항을 의미한다. 빅데이터 환경에서는 변수의 수가 급격히 증가함에 따라 발생하는 차원의 저주(Curse of Dimensionality)를 해결하기 위해 주성분 분석(Principal Component Analysis, PCA)과 같은 차원 축소 기법이 필수적으로 병행된다. 또한, 개별 데이터 간의 유사성을 측정하여 유사한 특성을 가진 집단으로 분류하는 군집 분석(Cluster Analysis)이나, 데이터 간의 연관 규칙을 찾아내는 장바구니 분석 등도 널리 활용된다.

최근의 빅데이터 분석은 정형 데이터뿐만 아니라 텍스트, 이미지, 영상 등 비정형 데이터에 대한 분석으로 영역을 확장하고 있다. 자연어 처리(Natural Language Processing, NLP) 기술을 기반으로 한 텍스트 마이닝은 비구조화된 텍스트에서 핵심 키워드를 추출하거나 감성 분석을 통해 대중의 여론을 파악한다. 특히 인공 신경망을 활용한 딥러닝 기법은 대규모 데이터셋에서 인간이 인지하기 어려운 복잡한 비선형적 패턴을 스스로 학습함으로써 이미지 인식 및 예측 정확도를 획기적으로 향상시켰다.

빅데이터 분석에서 주목할 점은 인과관계(Causality)보다 상관관계(Correlation)에 집중하는 경향이 있다는 것이다. 두 변수 간의 선형적 관계를 나타내는 피어슨 상관 계수(Pearson Correlation Coefficient) $ r $은 다음과 같이 정의된다.

$$ r = \frac{\sum (X_i - \bar{X})(Y_i - \bar{Y})}{\sqrt{\sum (X_i - \bar{X})^2 \sum (Y_i - \bar{Y})^2}} $$

수많은 변수가 복합적으로 작용하는 빅데이터 환경에서는 명확한 인과 경로를 밝히기 어려운 경우가 많으나, 변수 간의 강한 상관관계를 발견하는 것만으로도 실무적으로 유용한 예측 모델을 구축할 수 있다. 이러한 분석론적 특성은 데이터 과학이 이론 중심의 연역적 탐구에서 데이터 중심의 귀납적 탐구로 패러다임을 전환하는 데 결정적인 기여를 하였다.

데이터 마이닝과 패턴 인식

대규모 데이터 집합 내에 숨겨진 규칙이나 상관관계를 찾아내는 탐색적 분석 과정을 다룬다.

기계 학습 기반의 예측 분석

알고리즘을 통해 데이터를 학습시키고 미래의 사건이나 수치를 예측하는 모델링 기법을 설명한다.

텍스트 및 비정형 데이터 분석

언어 데이터나 이미지 등 비구조화된 정보에서 의미를 도출하는 특화된 분석 기술을 고찰한다.

자연어 처리와 감성 분석

인간의 언어를 기계가 이해하고 그 속에 담긴 태도나 감정을 분류하는 방법을 다룬다.

소셜 네트워크 분석

개체 간의 연결 관계를 그래프 이론을 통해 분석하여 영향력과 전파 경로를 파악한다.

빅데이터의 응용과 사회적 영향

빅데이터는 현대 사회의 의사결정 구조를 경험직관 중심에서 데이터 기반의 과학적 체계로 전환하는 결정적인 역할을 수행한다. 제4차 산업혁명의 핵심 자원으로 평가받는 빅데이터의 응용은 단순한 정보의 수집을 넘어, 기계 학습(Machine Learning) 및 인공지능(Artificial Intelligence, AI) 기술과 결합하여 미래를 예측하고 최적의 대안을 제시하는 처방적 분석(Prescriptive Analytics) 단계로 진화하고 있다. 이러한 기술적 진보는 공공 행정의 효율화와 산업 전반의 비즈니스 모델 혁신을 가속화하며, 사회 구성원의 생활 양식 전반에 깊숙이 침투하고 있다.

공공 부문에서 빅데이터는 증거 기반 정책(Evidence-based Policy) 수립을 위한 핵심 도구로 활용된다. 지방자치단체와 정부 기관은 행정 데이터와 민간의 유동 인구, 소비 데이터를 결합하여 도시 문제를 해결하고 사회 안전망을 강화한다. 예를 들어, 대중교통 노선의 최적화, 심야 버스 배차 간격 조정, 범죄 취약 지역 분석을 통한 CCTV 및 가로등 설치 등이 대표적인 사례이다. 또한, 감염병 확산 경로 예측이나 기상 데이터 분석을 통한 재난 대응 체계 구축은 공공 안전을 확보하는 데 기여한다. 특히 한국지능정보사회진흥원(NIA)의 분석에 따르면, 빅데이터 플랫폼을 통한 분석 지원은 중소기업의 현안 해결과 더불어 복지 사각지대 발굴 등 공공 서비스의 정밀도를 높이는 성과를 거두고 있다7).

산업 및 비즈니스 영역에서 빅데이터는 데이터 기반 혁신(Data-Driven Innovation, DDI)을 주도하며 새로운 경제적 가치를 창출한다8). 기업은 고객의 구매 이력, 소셜 미디어 활동, 웹 서핑 경로 등 방대한 비정형 데이터를 분석하여 개별 소비자의 취향을 정밀하게 파악하는 개인화(Personalization) 전략을 구사한다. 전자상거래 플랫폼의 추천 시스템(Recommendation System)은 이러한 분석의 결과물로, 소비자의 잠재적 수요를 예측하여 구매 전환율을 극대화한다. 제조업 분야에서는 설비에 부착된 사물인터넷(Internet of Things, IoT) 센서 데이터를 실시간으로 모니터링하여 고장을 사전에 예측하고 정비하는 예보 정비(Predictive Maintenance) 시스템을 도입함으로써 운영 효율을 높이고 비용을 절감한다.

빅데이터의 광범위한 확산은 사회 구조와 문화적 측면에서도 중대한 변화를 야기한다. 정보의 투명성이 제고됨에 따라 권력 기관이나 기업의 활동에 대한 사회적 감시가 강화되는 데이터 민주주의의 기틀이 마련되기도 한다. 그러나 동시에 데이터 접근성 및 활용 능력의 차이에 따른 정보 격차(Digital Divide) 심화는 새로운 사회적 불평등 요소로 지목된다. 또한, 알고리즘에 의한 의사결정이 내포할 수 있는 편향성(Bias) 문제와 대규모 데이터 수집 과정에서 발생하는 사생활 침해 우려 등은 빅데이터 기술이 해결해야 할 사회적 과제로 남아 있다. 결과적으로 빅데이터는 인류에게 전례 없는 효율성을 제공함과 동시에, 기술의 윤리적 운용과 제도적 보완이라는 새로운 책임론을 대두시키고 있다.

공공 부문의 정책 결정 지원

행정 데이터 분석을 통한 맞춤형 복지 제공과 도시 문제 해결 사례를 다룬다.

산업 및 비즈니스 모델의 혁신

고객 행동 분석과 수요 예측을 통해 기업의 의사결정을 최적화하는 전략적 활용을 설명한다.

빅데이터의 윤리와 보안 과제

데이터 활용 과정에서 발생하는 사생활 침해 문제와 정보 보안의 중요성을 강조한다.

개인정보 보호와 비식별화 기술

데이터의 유용성을 유지하면서 개인의 신원을 보호하기 위한 기술적, 제도적 장치를 논한다.

데이터 거버넌스와 품질 관리

신뢰할 수 있는 분석 결과를 얻기 위한 데이터의 생애주기 관리와 표준화 체계를 다룬다.

1)
ITU-T, Recommendation Y.3600: Big data - Cloud computing based requirements and capabilities, https://www.itu.int/rec/T-REC-Y.3600/en
2)
Doug Laney, Deja VVVu: Gartner’s Original “Volume-Velocity-Variety” Definition of Big Data, https://community.aiim.org/blogs/doug-laney/2012/08/25/deja-vvvu-gartners-original-volume-velocity-variety-definition-of-big-data
3)
NIST, NIST Special Publication 1500-1: NIST Big Data Interoperability Framework, Volume 1, Definitions, https://nvlpubs.nist.gov/nistpubs/SpecialPublications/NIST.SP.1500-1.pdf
4)
Ghemawat, S., Gobioff, H., & Leung, S. T., “The Google file system”, https://dl.acm.org/doi/10.1145/945445.945450
5)
Hey, T., Tansley, S., & Tolle, K., “The Fourth Paradigm: Data-Intensive Scientific Discovery”, https://www.microsoft.com/en-us/research/publication/fourth-paradigm-data-intensive-scientific-discovery/
6)
A Comparative Study of Data Mining Process Models (KDD, CRISP-DM and SEMMA), https://ijisr.issr-journals.org/abs.php?article=IJISR-14-281-04
빅데이터.1776093438.txt.gz · 마지막으로 수정됨: 저자 flyingtext