등급체계
평가방법 및 합격기준
| 등급 | 평가 방법 | 응시 자격 | 문항 수 | 평가 시간 | 합격 기준 | 유효기간 |
|---|
| Professional (고급) |
필기 | 제한 없음 | 50 문항 | 90분 | 70점/100점 | 영구 |
|---|---|---|---|---|---|---|
| 실기 | Professional(고급) 필기합격후 2년 내 |
8~12 문항 | 240분 | |||
| Advanced (중급) |
필기 | 제한 없음 | 50 문항 | 90분 | ||
| 실기 | Advanced(중급) 필기합격 후 2년 내 |
8~12 문항 | 180분 | |||
| Associate (입문) |
필기/실기 | 제한 없음 | 필기:25문항 실기:4~6문항 |
120분 |
* Associate(입문) 등급은 필기와 실기를 120분 내에 동시에 풀이하며, 필기/실기 평균 점수 70점 이상이 합격 기준입니다.
출제범위
| 평가과목 | 출제범위(필기/실기) | 과목별 필기시험 문항수 | ||||||
|---|---|---|---|---|---|---|---|---|
| 대분류 | 중분류 | 소분류 | Professional (고급) |
Advanced (중급) |
Associate (입문) |
Professional (고급) |
Advanced (중급) |
Associate (입문) |
| 총 문항수 | 50문항 | 50문항 | 25문항 | |||||
| 통계학 | 확률과 분포 | 확률의 개념과 응용 | 8~10 | 16~20 | 9~13 | |||
|---|---|---|---|---|---|---|---|---|
| 확률분포 | ||||||||
| 확률분포의 개념과 응용 | ||||||||
| 탐색적 데이터 분석 |
범주형 변수의 EDA | |||||||
| 수치형 변수의 EDA | ||||||||
| 기타 탐색적 데이터 분석 | ||||||||
| 추정과 검정 | 모집단과 표본, 모수와 통계량, 점추정과 구간추정 | |||||||
| 가설검정 개념, T-test, ANOVA, Chi-Square Test | ||||||||
| 기타 추정과 검정 | ||||||||
| 시계열분석 | Time Series Decomposition | |||||||
| Smoothing, Exponential Smoothing |
||||||||
| 기타 시계열 분석 | ||||||||
| Box-Jenkins ARIMA | ||||||||
| 데이터 처리 및 시각화 |
Data Intergration |
Data Intergration | 5~10 | 3~6 | ||||
| 데이터 Cleansing |
Missing Value 탐지 및 처리 | |||||||
| Outlier의 탐지 및 처리 | ||||||||
| 기타 데이터 Cleansing | ||||||||
| Transformation | 분포의 모양에 따른 변환 | |||||||
| Data Scaling | ||||||||
| 데이터 형태 변환 | ||||||||
| 기타 Transformation | ||||||||
| 가변수의 생성 | ||||||||
| 파생변수의 생성 | 다양한 방법의 파생변수 생성 | |||||||
| Sampling | Sampling 방법 | |||||||
| Classification의 클래스 불균형 데이터의 처리 |
||||||||
| 문자열 Data의 전처리 |
문자형의 분리 | |||||||
| 정규표현식 | ||||||||
| 시각화 및 리포트 작성 |
시각화 및 리포트 작성 | |||||||
| 머신러닝 | 머신러닝 개요 | 머신러닝 기본 개념 및 머신러닝 방법론 -Supervised learning -Unsupervised learning |
20~25 | 20~25 | 8~12 | |||
| 머신러닝 기본개념 및 머신러닝 방법론 -Reinforcement learning |
||||||||
| 머신러닝 관련 최적화 |
다양한 머신러닝 관련 최적화 방법 | |||||||
| Feature Selection 및FeatureExtraction |
Feature Selection | |||||||
| Feature Extraction | ||||||||
| Clustering | Hierarchical Clustering | |||||||
| K-Means Clustering | ||||||||
| 기타 Clustering | ||||||||
| Regression | Linear Regression | |||||||
| 기타 Regression 방법 | ||||||||
| KNN Regression | ||||||||
| Regularization | ||||||||
| Classification | Logistic Regression | |||||||
| 기타 Classification 방법 | ||||||||
| Naïve Bayes | ||||||||
| KNN Classification | ||||||||
| SVM(Support Vector Machine) | ||||||||
| Tree Model | Decision Tree | |||||||
| Ensemble Methods: Bagging 방법 | ||||||||
| Ensemble Methods: Boosting 방법 | ||||||||
| Recommendation | Association Rule | |||||||
| 기타 Recommendation | ||||||||
| Contents based filtering | ||||||||
| Collaborative filtering | ||||||||
| 딥러닝 | Neural Network 기본 | 15~20 | ||||||
| CNN, RNN, Autoencoder | ||||||||
| 기타 Deep Learning(생성형AI, LLM 등) | ||||||||
| 텍스트 분석 | 텍스트 전처리 및 시각화 방법 | |||||||
| Text Embeddings | ||||||||
| 기타 텍스트 분석 | ||||||||