맞춤형 분석을 위한 End-to-End 서비스 형 플랫폼

기획/개발/인프라/관리 등 분석 서비스와 솔루션 사용에 필요한 복잡한 과정은 고민하지 마세요.

Fox AI Cloud는 클라우드 환경에서 분석 플랫폼을  제공하는 Platform-as-a-Service로  누구나 데이터 수집, 정제 및 분석 모델 수립이 가능한 통합 분석 환경입니다.

Fox AI Cloud 데이터분석 파이프라인

4단계의 데이터분석 파이프라인에 따라, 고도화된 데이터분석과 심화학습이 가능합니다.

  • 01. Data Pipeline

    데이터 수집 및 정제를 직접 쉽게 할 수 있는 환경을 제공합니다.


    • Fox DIY Crawler를 활용하면 온라인 데이터를 직접 수집 할 수 있습니다.
    • 공공, 뉴스, SNS 등 외부 데이터와 매출, 
      VOC 등 기업 내부데이터를 결합 및 정제 할 수 있습니다.
    자세히보기  →
  • 02. Algorithm Pipeline

    다양한 최신 알고리즘을 한곳에서 활용할 수 있는 환경을 제공합니다.


    • 통계모델, 기계학습, 딥러닝 등 서로 다른 분석기법을 표준화하여 제공합니다.
    자세히보기  →
  • 03. Analysis Pipeline

    데이터와 알고리즘이 결합된 통합 분석 플랫폼을 제공합니다.


    • 구축된 클라우드 환경 내에서 코딩 지식 없이도 고도의 분석이 가능합니다.
    • 사용자의 분석 목적에 따른 정확한 분석 방법론을 제공 받을 수 있습니다.
    자세히보기  →
  • 04. Knowledge Pipeline

    국내·외 데이터분석 전 영역의 정보를 통해
    심화 데이터 분석을 위한 가이드라인을 제공합니다.


    • 분석가의 노하우가 담긴 실험리포트, 백서, 논문 해설 등을 제공합니다.
    • 다른 사용자의 분석 성공사례를 직접 확인하고 바로 적용하도록 설정 및 모델을
      제공합니다.
    자세히보기  →

01. Data Pipeline

몇 번의 클릭만으로 데이터 수집이 가능한 Fox DIY Crawler 기반,
어렵고 번거로웠던 데이터 수집 및 정제가 쉬워집니다.

01

DIY 데이터 수집

  • Fox DIY Crawler를 활용한
    DIY 데이터수집

    클릭만으로 뉴스, 네이버·다음 블로그, 카페 그리고 주요 커뮤니티 게시글을 수집 할 수 있습니다.

02

데이터 정제

  • 데이터 전처리

    분석 목적에 따라 필요한 형태로 데이터를 정제

  • 데이터 특징 추출

    PCA, Gini 불순도 등의 기법으로 분석 변수 중요도 및 가중치를
    측정

03

데이터 공급

  • 스트림 액세스

    매일 업데이트 되는 새로운 데이터를 제공

  • 벌크 액세스

    분야 별, 날짜 별로 정리된
    대용량 데이터 셋을 제공

  • 3rd Party 액세스

    제휴사의 데이터를 표준화하여 제공

  • 키워드 사전 및
    텍사노미 분류체계

    주제 영역 별 방대한 사전과 분류체계를 제공

02. Algorithm Pipeline

분석 목적 및 데이터 유형에 따라 선택 할 수 있는
표준화된 알고리즘을 한 곳에서 제공합니다.

01

데이터 전처리

  • 형태소 분석

    단어 단위의 분석 기반 마련

  • 키워드 사전 및
    텍사노미 분류체계

    100만 건 이상의 키워드
    사전과 문서 분류체계
    구축

  • 언어 모델링

    언어의 발생 패턴을
    모델링하고 학습

02

키워드 단위 분석

  • 연관어 추출

    문서 내 함께 언급되는
    연관어의 빈도를 추출

  • 신조어 추출

    새롭게 등장한 신규 단어를 추출

  • 개체 인식

    이름, 장소, 단체명을
    인식하여 추출

03

문서 단위 분석

  • 문서 분류

    주제 영역 별 문서를
    자동 분류

  • 감성 분석

    제품 또는 기업에 대한
    감성을 분석

  • 스팸 분석

    목적에 적합하지 않은
    문서를 제거

  • 의도 분석

    키워드 기준 문서의
    목적을 파악

  • 문서 요약

    알고리즘을 통해
    문서의 핵심을 추출

01

전처리

  • 데이터 변환

    ETL(Extract, Transform, Load) 을 통한 유형 변환 및 표준화

  • 데이터 교정

    결측치 변환, 이상치 제거,
    노이즈 데이터 교정 등

  • 데이터 통합

    메타 정보, 레거시 시스템과
    연계 및 통합

02

Classification

  • 통계적 분류

    로지스틱 회귀분석 등
    통계 기법 기반 데이터분류

  • Non-Parametric

    Gaussian Mixture Model,
    K-NN 등 모집단간
    관계를 분석

  • 딥러닝

    Neural Network를
    활용한 딥러닝

03

Clustering

  • 군집 분석

    유사한 대상 끼리 그룹핑
    (K-Means 등)

  • 차원 축소

    PCA, LDA 등
    데이터의 주요 차원을 추출

04

Prediction

  • 트랜드

    시계열 분석 등을 통해
    트렌드 예측을 진행

  • 예측

    회귀 분석을 통해
    예측을 진행

05

Optimization

  • 시뮬레이션

    모델 시뮬레이션을 통한 최적화를 지원

  • 강화학습

    현재 상태에서 변화에 대한 반응을 바탕으로 최적화

  • LP(Linear Programming)

    선형계획법을 통해 제약조건 내 최적화를 진행

03. Analysis Pipeline

데이터와 알고리즘이 결합된 통합 분석 플랫폼으로 코딩이나 모델튜닝 없이 최적화 된 분석 결과를 도출할 수 있습니다.

01

분석모델 학습

  • 모델 제시
    • 데이터의 형태, 분석의 목적에 따라 데이터에 적합한 모델 제시
    • 희귀분석, 의사결정나무, 클러스터링, 인공신경망 등 다양한
      모델 및 알고리즘 제공
    • 비 전문가도 사용할 수 있는 모델 학습 환경 제공
02

분석모델 평가

  • 모델 별 성과지표 시각화

    분석 목적에 부합하는
    성과 지표 설정 (Confusion
    matrix, Roc Curve 등)

  • 모델간 비교

    다른 기법과의 성과 비교

  • 민감도 분석

    모델 세부설정 변경에 따른
    변화 비교

03

분석결과 제공

  • API 생성

    학습된 모델을 고객의 환경에서
    호출할 수 있는 채널 제공

  • 모니터링 결과 제공

    운영환경에서의 성과
    모니터링

04. Knowledge Pipeline

다년간 쌓인 분석 성공사례 지식과 최신 분석트렌드를 통해
데이터전문가로서의 발걸음을 지원합니다.

01

Model
Whitepaper

  • 분석 목적 별 노하우 공유

    유사 사례 중심의 노하우로
    분석 시행착오 최소화

02

Insight Report

  • 모델에 대한 분석 리포트

    분석모델 성과데이터 기반으로
    모델 성능향상을 지원

  • 최신 분석 트랜드 공유

    해외 저널 및 분석 리포트로
    분석 트렌드 공유

scrollup