let us not love with words or tongue but actions and truth.

IT/패턴인식 13

신경망 학습

퍼셉트론 학습이란? 훈련집합이 주어졌을 때, 옳게 분류하는 퍼셉트론 (weight, bias)를 찾는 것 input layer, output layer 2개만 있음 입력층: d+1 (bias포함) 노드 출력층: 1개 노드 (2 class 분류기 일때) 이 외에도, 가중치 & 활성 함수 필요 아래 내용 풀어보기 패턴 인식에서 일반적인 학습 알고리즘 설계 과정  단계 1: 분류기 구조 정의와 분류 과정의 수학식 정의  단계 2: 분류기 품질 측정용 비용함수 J(Θ) 정의  단계 3: J(Θ)를 최적화하는 Θ를 찾는 알고리즘 설계 목적함수 분류기 품질을 측정하는 것 오분류라면 true answer와 prediction의 부호가 다르게 되고 위의 목적함수에서 보다시피 두 값을 곱하게 되면 오분류의 경우 항..

IT/패턴인식 2022.10.14

확률 분포 추정

확률밀도 함수가 주어지지 않았을 때는 어떻게 풀 것인가 → Gaussian확률 밀도함수가 주어졌을 때는 bayesian 결정이론을 사용했음 → 확률 분포(확률밀도 함수) 를 추정해야함 베이지안 분류기에서 우리가 알아야 되는것은 1. 사전확률 ( sample / N(표본수) ) bias가 있을것이라고 생각이 된다면 사전확률은 무시해도 됨 (주사위 면적이 다를 것이라고 생각된다면) 2. 확률 밀도함수 (클래스 별) a. parameter를 알면 추정할 수 있음 = parameter density function (likelihood: 최대우도법) b. non-parametric density function (비모수 추정법) → Parzen windown density / knn density estimat..

IT/패턴인식 2022.10.02

정규분포에서 베이시안 분류기

정규분포(가우시안분포) 정규분포(가우시안분포)는 parametric density function임 → 평균과 분산으로 표현이 가능함 ** 가우시안 x 가우시안 = 가우시안 ( 계산에 유리함) d-dimension에서 ∑ 는 공분산을 뜻함 σ의 제곱 = ∑ 이 전장에서 배웠던 우도함수 참고하기.. 위의 식에서 양변에 로그를 취함 gi(x)는 변수 x에 대한 2차 식 → Why? X(transpose) * X 식이므로 역행렬 공식 참고** https://blog.naver.com/suhan80/222697306428 결정경계(decision boundary) gi(x)=gj(x)인 점 즉, gij(x)=0인 분별함수 특이상황 공분산 행렬이 같은 상황 (문제를 간단하게 하기위해서도 씀) 따라서 2차항이 없어..

IT/패턴인식 2022.09.29

Bayesian 결정이론

사후확률이란: P(ωi|x) x가 주어졌을때 그것이 부류 ωi에서 발생했을 확률 아래그림처럼 분류가 안되는 이유 잘 못된 feature를 뽑았을 경우 분류가 잘 안될 수 있음 확률밀도함수의 필요조건 P(x)가 양수여야되고 P(x)의 모든 합은 1이어야 함 확률기초 d-dimension : random 변수에 해당함 (패턴 인식에서 특징 각각이 랜덤 변수에 해당함) 주사위에서 3을 뽑을 것인지 4를 뽑을 것인지 n- sample c- class parameter 개수는 (d^2 + d ) / 2임 생각 1 상자 A의 하얀 공 확률과 상자 B의 하얀 공 확률을 비교하여 큰 쪽을 취한다. P(하양|B)=9/15 > P(하양|A)=2/10 이므로 ‘상자 B에서 나왔다’고 말함 조건부 확률 P(Y|X)를 사용한 ..

IT/패턴인식 2022.09.19

패턴인식0907

사람과 기계의 차이가 연구자들을 끌어들이는 매력으로 작용 인식은 사람에게 (극히) 쉽다. 인식은 기계에게 극히 어렵다. 인식을 한다는 것은 특징을 찾고 분류한다는 것 얼굴이 작고, 코가 뾰족하고, 눈썹이 짙고, 눈이 작은 샘플이 있다면, 특징 얼굴 크기 (x1 ), 코의 모양 (x2 ),눈썹의 짙은 정도 (x3 ), 눈의 크기(x4 ) 분류 x1=작다, x2=뾰족하다, x3=짙다, x4=작다 라는 패턴이 들어왔을 때, 이미 알고 있는 지식에 비추어 아무개일 가능성이 높다라는 의사결정 과정 머신러닝시 데이터셋의 구성은 Train / validation / test 양적으로 데이터가 확대가 된 이유 2000년대 부터… 인터넷의 발달 저장매체의 발달 레이블이 된 데이터들(getcha) 필기체 숫자를 8*8의 ..

IT/패턴인식 2022.09.12