본문 바로가기
기계학습 - 오일석/Chapter 1: 소개

1.2 특징 공간에 대한 이해

by kkkkk1023 2024. 12. 23.
💡 특징 공간: 데이터의 특성을 나타내는 변수들로 이루어진 공간

2차원 특징 공간

1차원 특징 공간과 다르게 2차원 특징 공간은 두개의 x축을 통해서 y축을 예측하는 것이다. 

따라서, 2차원에서의 특징 벡터 x는 (x₁, x₂)ᵀ 방식으로 표현할 수 있다. 이를 바탕으로 키, 몸무게에 대한 장타율을 나타내면 아래와 같다.

 

 

 

다차원 특징 공간

2차원 뿐만 아니라 그 이상 차원에서도 특징 벡터를 표현할 수 있는데 다차원에서의 특징 벡터 x는 (x₁, x₂, x, x, ..., xd)ᵀ 방식으로 표현할 수 있다. 

 

 

 

 

특징 공간 변환과 표현 학습

위와 같이 직선으로 분류할 수 없던 특징 공간을 분류할 수 있게 변환하는 것이 특징 공간 변환이라고 한다. 

이렇게 변환을 통해서 좋은 특징 공간을 자동으로 찾아내는 것표현 학습이라고 한다.

 

 

 

차원에 대한 몇 가지 설명

🔥 차원이 증가한다고 수식이나 알고리즘이 바뀌어야 하는 것은 아니다. 🔥

 

만약 3차원 특징 공간에 존재하는 두 점 a = (a₁, a₂, a₃)ᵀ, b = (b₁, b₂, b₃)ᵀ가 주어진다면 a와 b의 거리는 아래와 같다.

 

거리(a, b) = √(a₁ - b₁,)² + (a₂ - b₂)² + (a₃ - b₃) ²

 

이 방법은 d 차원으로 확장하면 아래의 식처럼 만들 수 있다.

 

이 식을 통해서 고차원에서 계산을 하면 현실적인 문제가 발생한다. 차원이 높아지면서 거대한 특징 공간이 형성되고 데이터 포인트의 거리가 멀어진다. 따라서 모델의 성능이 저하된다.

'기계학습 - 오일석 > Chapter 1: 소개' 카테고리의 다른 글

1.7 기계 학습 유형  (0) 2024.12.24
1.5 모델 선택  (0) 2024.12.24
1.4 간단한 기계 학습의 예  (1) 2024.12.24
1.1 기계 학습이란  (0) 2024.12.23