let us not love with words or tongue but actions and truth.

pca 3

특징추출2 - PCA, LDA

주성분 분석 principal component analysis Karhunen-Loeve (KL) 변환 또는 Hotelling 변환이라고도 부름 정보 손실을 최소화하는 조건에서 차원 축소 저차원으로 투영한다는 것의 의미 저차원으로 투영한 뒤에, 원래 점들을 구별할 수 없으면 좋은 차원축소X (c)에서 가장 정보의 손실이 최소화되는 방향으로 저차원으로 축소한 것임 (c)가 변환된 공간에서의 분산이 가장 큼 정보손실 원래 훈련 집합이 가진 정보란 무엇일까?  샘플들 간의 거리 or 그들 간의 상대적인 위치 등  PCA는 샘플들이 원래 공간에 ‘퍼져있는 정도를’ 변환된 공간에서 얼마나 잘 유지하느냐를 척도로 삼음 → 이 척도는 변환된 공간에서 샘플들의 분산으로 측정함 → 목표: 변환된 샘플들의 분산을 최..

IT/패턴인식 2022.12.08

Face recognition

얼굴 인식이 어려운 이유 - 표정변화 - occulusion(장신구) - 회전변화, 크기변화 - 조명변화 - 화장효과 - 노화 Pose-invariant 중 face와 관련된 landmark detector 3가지 방법 - AAM: Active Appearance Models (2D) - texture와 shape을 같이 씀 - ASM: Active Shape Models (2D) - Morphable Model (3D version AAM) ** 모두 PCA방법을 사용함 PCA를 활용한 face recognition (Eigenfaces) PCA는 데이터의 분산이 가장큰 방향으로 좌표축을 정렬함 scatter matrix를 최대로 하는 eigen value를 찾는 것임 (global projection..

차원축소 tsne, pca와 비교

오늘은 pca, pls, tsne 등 다양한 차원축소 method중에 tsne에 대해서 정리해보려고 합니다. 한글로는 티스네라고 읽어요! pca와는 조금 다르게, tsne는 원래 데이터 형태가 곡선을 나타내는 모형일 때 더 성능이 좋아요. 보통 숫자 분류 mnist 데이터 셋에 대해 차원 축소를 고려하신다면, 0이나 8같은 숫자들은 곡선들로 이루어져 있죠. 이럴 때 tsne를 사용하면 더 성능이 좋다고 합니다. 반면에, pca는 feature들이 선형적 관계들이 있을 때 잘 분류하지요. 그래서 pca를 쓸 지, tsne를 쓸 지를 판단하시기 위해서는 가지고 있는 데이터들이 어떤 분포를 가지는지를 먼저 파악하는 것이 무엇보다 중요하지요. 또 pca는 skit-learn에서 decomposition로 불러오..

IT/파이썬 2021.04.25