본문으로 바로가기

[DeepLearning] 차원 축소

category 인공지능/DeepLearning 2021. 2. 22. 22:32
반응형

오늘은 차원 축소에 대해 알아보겠습니다.

왜 차원 축소가 필요할까요?

예를 한번 들어보겠습니다.

이미지를 예로 들면, 스마트폰에 대한 데이터 10개가 있고, TV에 대한 데이터 10개가 있습니다.

1차원적으로 봤을때 분류를 위해서 왼쪽에는 스마트폰, 오른쪽에는 TV로 분류 할 수 있습니다.

1차원적으로 구분을 할 수 있지만, 차원을 높이게되면 구분의 정확성을 높일 수 있습니다.

그렇지만 차원이 높다고해서 구분이 잘된다고 할 수 없습니다. 비례하지는 않습니다.

그에 대한 적정 차원을 찾는게 중요합니다.

차원의 저주라는 용어가 있는데 이것이 바로 이에 해당합니다.

차원이 증가하면서 차원의 수가 학습데이터수보다 많아지면서 성능에 문제가 생기는 현상입니다.

이 말인 즉슨, 필요없는 빈 공간이 많아진다는 뜻이기도 합니다.

즉, 만들어진 모델의 성능에 문제가 생기는 것이죠.

그렇기 때문에 빈공간 즉, 차원을 줄이기 위해서 차원을 축소 해야됩니다.

차원 축소 알고리즘에는 PCA, LDA, SVD, NMF 등이 있습니다.

이상입니다.

반응형

댓글을 달아 주세요