Chapter 0
Before You Start
1. Linux
2. Python 버전 관리
3. Jupyter
4. CUDA/cuDNN
5. Windows Subsystem for Linux
Chapter 1
Statistics for Data
Analysis
1. Data Architecture
1.1. Introduction to AI world
1.2. RAM & VRAM*****
1.3. 데이터 컨테이너
1.4. DataType
1.5. NaN
1.6. ndarray
1.7. Broadcasting
1.8. 벡터화
1.9. View & Copy
2. 데이터 종류 및 분류
2.1. 측정 척도
2.2. 회색지대/함정(오개념 방지에 대한 설명)
2.3. 결정 예시
2.4. 데이터 포맷
2.5. Python에서 데이터를 읽기
3. 추론 통계
3.1. 목적과 용어
3.2. 가설검정
3.3. 효과 크기와 실무적 중요성
4. 상관분석 / 회귀분석
4.1. 상관분석
4.2. 회귀
4.3. 진단 후 강건화
4.4. 정규화 회귀
4.5. 회귀의 목적: 예측과 설명
5. Question
Chapter 2
Big Data and Machine
Learning
0. Introduction to Machine Learning
1. 기계학습 개념 및 프로세스 이해
1.1. 문제정의와 목표함수
1.2. 데이터 수명주기와 파이프라인
1.3. 데이터 분할 전략
2. 학습별 모델 성능평가 지표 및 튜닝 방법 이해
2.1. 분류(Classification)
2.2. 분류 실습 과제: MNIST 손글씨 숫자 인식
2.3. 회귀(Regression)
2.4. 회귀 연습: UCI Bike Sharing
2.5. Anomaly Detection
2.6. 과제: 이상치 감지 사례
3. 지도학습 분류/회귀 모델 활용
3.1. k-Nearest Neighbors Classifier
3.2. Linear Regression
3.3. Logistic Regression
3.4. Decision Tree
3.5. Random Forest
3.6. Support Vector Machine
3.7. Gradient Boosting
3.8. Naive Bayes
3.9. Questions
4. 비지도학습 모델 이해 및 활용
4.1. K-means
4.2. Hierarchical Clustering
4.3. Density-based spatial clustering of applications with noise
4.4. Principal Component Analysis
4.5. t-distributed stochastic neighbor embedding
4.6. Isolation Forest
4.7. Local Outlier Factor
4.8. Questions
Chapter 3
Computer Vision
Programming
1. Computer Vision Concept & Image Architecture
1.1. Pixel and Video
1.2. 색과 밝기
1.3. Image File Format
1.4. 메타데이터
1.5. 카메라 이미지 파이프라인
1.6. 표본화와 보간
1.7. 카메라와 기하
1.8. Computational Thinking+
1.9. 주파수
2. 이미지 데이터 기본 처리
2.1. 입출력과 시각화
2.2. Region of Interest & Masking
2.3. 기울기, 엣지, 코너
2.4. 밝기 히스토그램
2.5. 노이즈와 평활화
2.6. 이진화
2.7. 모폴로지
2.8. 주파수 필터링
부록 OpenCV 함수 정리
3. Questions
Chapter 4
Basic Deep Learning
0. Intro
0.1. Introduction to Deep Learning
0.2. 가속 하드웨어와 딥러닝+
1. 텐서와 자동미분
1.1. Shape
1.2. dtype
1.3. 브로드캐스팅
1.4. View & Copy
1.5. 벡터화(Vectorization)
1.6. 그래디언트
2. 손실함수와 확률적 출력
2.1. Logit
2.2. Sigmoid & Softmax
2.3. CrossEntropy
2.4. Threshold
3. 다층 퍼셉트론(MLP)
3.1. Single Layer Perceptron
3.2. MLP
3.3. MLP on UCI Wine with Torch
3.4. MLP on UCI Wine with TensorFlow/Keras
3.5. Activation Function
3.6. Dropout
3.7. Backpropagation
4. Convolutional Neural Network
4.1. Convolution
4.2. Kernel
4.3. Stride
4.4. Padding
4.5. Pointwise Convolution
4.6. Normalization
4.7. Computational Cost
4.8. Pooling
4.9. 수용 영역
5. CNN Models
5.1. AlexNet(2012)
5.2. Inception(2014)
5.3. VGG-16(2014)
5.4. ResNet
5.5. MobileNet
5.6. UNet
6. 전이학습 이해 및 활용
6.1. Transfer Learning
6.2. 학습 안정화
7. Questions
7.1. Part 1
7.2. Part 2
Chapter 5
Transfer Learning-based
Models
1. Object Detection
1.1. 문제 정의
1.2. 평가 지표
1.3. Two-stage
1.4. One-Stage-You Only Look Once
1.5. Anchor vs Anchor-free
1.6. 학습 요소
1.7. 성능 저하의 원인들
1.8. Pretrained backbone
2. You Only Look Once
2.1. YOLO의 구조
2.2. 입력과 출력 파이프라인
2.3. YOLO 학습 감각
2.4. YOLO 추론과 배포
2.5. 사전학습 YOLO를 나만의 데이터에 전이 학습하기
3. GAN 개념 및 구조 이해와 활용
3.1. Generative Adversarial Network
3.2. 기본에서 변종 GAN으로
3.3. GAN 학습 감각
4. HuggingFace
4.1. HuggingFace 기반 전이학습
4.2. HuggingFace에서 자주 쓰는 모델들
4.3. State of the Art
5. Questions
Chapter 6
NLP
1. Introduction to Natural Language Processing
1.1 Definition of NLP
1.2. 이해 생성 변환
1.3. 처리 단위
1.4. 규칙 기반의 전통적 자연어 처리
1.5. 신경망 기반 NLP
2. 데이터 전처리 과정 및 방법
2.1. 텍스트 정규화
2.2. English vs Korean
2.3. Tokenization
2.4. 정제
2.5. 라벨 품질 관리
3. RNN / LSTM 구조 이해 및 활용
3.1. 순환신경망 기본
3.2. Long Short-Term Memory
3.3. Gated Recurrent Unit
3.4. Seq2Seq
4. Transformer
4.1. Attention is All You Need
4.2. 표준 트랜스포머 아키텍처
4.3. Transformer 계열과 학습 목표
4.4. 미세 조정
4.5. Optimization
4.6. Retrieval-Augmented Generation