선행지식 : 행렬 / 선형 대수 기저(basis) / Affine Matrix(아핀 공간) / 외적 등그래픽 파이프라인3차원 이미지를 2차원 래스터 이미지로 표현하기 위한 단계적인 방법래스터(raster)란 이미지를 2차원 배열 형태의 픽셀로 구성하는 것을 의미 (출처) 위키백과 이번 글에서는 그래픽 파이프라인 중 Vertex Processing에 대해 알아보고자 한다. Vertex Processing우리는 연필을 화면에 출력하고자 한다.연필을 출력하기 위해서는 연필을 구성하는 정보가 필요하다. 연필은 점들로 구성되어 있고 이를 정점(Vertex)라고 한다. 이 점 좌표를 그대로 화면에 찍으면 될까? 이는 연필 기준(Object)으로 표시한 것이기 때문에 여러 변환 과정이 필요하다. 이 과정을 Verte..
Perceptron McCulloch-Pitts Neuron Model 출력 Binary 수상 돌기에 도착한 여러 신호가 세포체에 합쳐짐 합쳐진 신호가 특정 값을 넘으면 축삭 돌기를 이용하여 출력 신호 전달 >> 몇 년 후 MCP Neural Model 기반의 Perceptron 등장 Perceptron 이진 분류에 적용 가능 Positive Class: +1 Negative Class: -1 선형적으로 구분 가능한 데이터에 대해 사용 (그렇지 않을 경우 Updqte가 멈추지 않음) 결정 함수 ϕ(z)=ϕ(wTx)
z값이 Threshold τ에 따라 Positive Negative 판별 학습 규칙 w를 0 또는 작은 값으로 랜덤 초기화 각 샘플 x에 대한 출력 ..
Resampling Methods training set에서 반복해서 sample을 뽑고, 그 sample에 반복해서 model을 refit하는 것 방법 Cross-Validation Bootstrap Cross-Validation 목적 test error 예상: model assessment (모델 평가) model selection (모델 선택) Validation Set Approach 무작위로 train set의 일부를 절반 잘라서 validation set (hold-out set)으로 사용 Validation set에 대한 error rate를 통해 test error rate를 추정함 문제 Validation set에 따라 결과가 다를 수 있음 Validation set의 크기가 클수록 tr..
Dimensionality Reduction 모델 경량화를 위해 사용 모델 제작이 쉽다, 관찰이 쉽다 등의 이점이 있음 Feature selection 원본 feature 유지 Best subset selection, Forward stepwise selection, Backward stepwise selection Feature extraction 기존 feature에서 transform이나 project를 통해 새로운 feature space를 얻음 curse of dimensionality 감소로 성능을 향상시킬 수 있음 Principal Component Analysis (PCA) Unsupervised Linear transformation technique for feature extracti..
Linear Model Selection and Regularization 목표 : Linear Moded에서 Least squares 이외에 성능을 향상시킬 수 있는 방법 고민 Prediction Accuracy (n : observation 수 / p variable 수) n>>p : variance가 낮아 test set에 잘 동작 n<p : overfitting이 발생할 수 있음 Model Interpretability 결과와 무관한 parameter 없애기 즉, parameter를 0으로 만들기 종류 Subset Selection : attribute 중 어떤 attribute를 쓸 것인가 Shrinkage : p개의 파라미터 이외는 0에 가깝게 정하기 Dimen..
Instance-Based Learning Nonparametric model 고정된 크기의 parameter set으로 데이터를 특징화할 수 없을 때 사용하는 모델 학습된 사례들을 기억하는 것으로, 시스템이 훈련 데이터를 기억함으로써 학습한다. 새로운 데이터가 들어오는 경우, 학습된 데이터(일부 또는 전체)와 새로운 데이터의 유사도를 측정하여, 입력된 새로운 데이터를 가장 유사도가 높은 기존 학습 데이터의 클래스로 분류한다. 새로운 데이터가 들어오기 전까지 계산을 미루기 때문에 'lazy' algorithm 이라고 부르기도 한다. Parametric model 고정된 크기의 parameter set을 데이터와 함께 추출한 모델 Model-based learning 데이터 셋에 적합한 모델을 사용하여 모..
AES (Advanced Encryption Standard) 지난 시간에 배운 유한체 내용과 Block Cipher 내용을 기반으로 AES라는 암호 방식에 대해 배워보려고 한다 개요도 기본 개념 AES는 Byte 단위로 암호화한다. 4x4 matrix 형태로 진행한다. AES의 덧셈은 XOR 연산이다. encryption과 decryption 과정이 다르다. AES Encryption Byte substitution layer : nonlinear한 특징 ShiftRow, MixColumn Sublayer : Diffusion layer 1. ByteSub Transformation 1) S-box 표를 통해 치환 (바이트 단위로 읽어야 한다!) 예시 2) 연산에 의해서 S-box 가능 (자세한 계산은..
유한체 (Introduction to Finite Fields) 이번에 정리할 내용은 AES를 정리하기 전 필요한 이산수학2의 유한체 내용이다. Groups, Rings, and Fields 개요도 Group Associative law (교환 법칙) Identity (항등원이 있다) Inverse (역원이 있다) commutative 추가시 abelian group Subgroup 같은 연산자에 대해서 group의 하위 집합이 group의 성질을 띄우면 subgroup 이라고 한다. Cyclic Subgroup 특정 원소(generator)를 powering하여 group의 모든 원소를 표현할 수 있으면 cyclic group이라고 하고 cyclic group은 subgroup이 될 수 있다. Ring..