let us not love with words or tongue but actions and truth.

기계학습 3

규제 기법2 - Augmentation, Dropout, 앙상블

오늘은 규제기법 중에, Data Augmentation, Dropout, 앙상블 기법에 대해서 정리해보고자 한다. 여기서 Dropout은 지난번에 잠깐 언급한 분류에 의하면 명시적 기법에 속하며, Augmentation과 앙상블은 암시적 기법에 속한다. 규제 분류를 참고하려면 아래 내용에서 확인이 가능합니다. https://sarah0518.tistory.com/107 규제 기법 - Ridge & Lasso 규제 기법에는 크게 아래와 같은 2가지 종류가 있다. 1. 명시적 규제: 가중치 감쇠나 Dropout처럼 목적함수나 신경망 구조를 직접 수정하는 방식 2. 암시적 규제: 조기멈춤, 데이터 증대, 잡음 추가, sarah0518.tistory.com 그럼 다시 다양한 규제기법들에 대해 소개를 해보자. 1..

로그우도 목적 함수와 multi-class classification

지난번 정리 내용에서는 binary-class classification일 때 사용하는 cross-entroypy 목적함수를 설명했었다. 이번에는 multi-classification에서 사용하는 목적함수인 로그우도 목적함수와 softmax 활성함수(역시 multi-class classification에서 사용)에 대해 정리해보려고 한다. 우선 softmax 활성함수부터 설명해보자. 그림으로 설명하면 더 쉬울 것 같다. 이 그림을 설명해 보면 출력층에서 S1=2, S2=1.2, S3=4 라는 값이 나왔을 때 이것을 확률값으로 변경해주는 것을 생각해보자. 예를 들어, max에 표시된 것처럼 S1=0, S2=0, S3=1로 출력층의 값을 변화시켜 주면 총합은 1이 되며, 출력층을 통해 나온 결과는 가장 마지..

목적함수에 대한 정리

기본적으로 통계학에서 목적함수라하면 MSE를 가장 많이 사용했었다. Mean Squre Error로 오차의 제곱의 평균이다. 즉, 실제값과 예측값의 오차의 거리를 측정하여 그것의 평균을 가지고 목적함수를 사용한 것이다. 말이 목적함수이지만, 결국 이 목적함수를 줄이는게 성능을 높이는 것이라고 생각하면 된다. 특히 MSE를 회귀분석쪽에서 많이 사용했다고 한다면, Entropy는 분류쪽에서 많이 사용한다. 오늘은 Entropy 목적함수에 대해서 조금 자세히 살펴보고자 한다. 정보량을 놀람의 정도라고 생각을 해보자. 새로운 정보가 듣도 보도 못한 정보라면, 놀람의 정도는 증가하게 된다. 이걸 수식으로 표현하면 "놀람의 정도 = I(x)=-logP(x)" 라고 할 수 있는데, 왜 logP(x)인가에 대해서는 그..