임베딩(embedding)

2024. 8. 17. 17:07AI

반응형

수학에서 모집단의 성격을 보존하면서도 모집단과는 다른 형태의 소집단으로 도표화(mapping)하는 것을 일반적으로 "임베딩"(embedding)이라고 한다. 임베딩은 고차원 데이터를 저차원 공간에 표현하면서 원래의 데이터 구조(예: 거리, 유사성 등)를 최대한 유지하려고 하는 과정이다.

 

 


 임베딩(Embedding):
   -  임베딩은 데이터나 객체를 고차원 공간에서 저차원 공간으로 매핑하는 방법을 말한다. 이때 원래 데이터의 구조나 속성을 최대한 유지하려고 한다.
   - 예: 수치 데이터에서 주성분 분석(PCA)을 사용하여 고차원 데이터를 저차원으로 축소하는 경우가 임베딩의 한 예이다.

 차원 축소(Dimensionality Reduction):
   -  데이터의 차원을 줄이면서도 그 본래의 특성을 보존하려는 기법이다. 데이터의 차원을 줄이면서도 데이터 간의 거리, 관계 등을 최대한 유지하려고 하는 것이다.
   - 예: t-SNE, PCA, UMAP 등 다양한 기법들이 있다.

 매니폴드 학습(Manifold Learning):
   -  비선형적으로 구조화된 데이터를 낮은 차원으로 임베딩하는 방법으로, 데이터가 본질적으로 낮은 차원에서 나타날 수 있다고 가정하는 방법론이다.
   - 예: 주로 t-SNE, Isomap 같은 비선형 차원 축소 기법들이 있다.

 

- t-SNE (t-Distributed Stochastic Neighbor Embedding): 고차원의 데이터를 저차원(보통 2차원이나 3차원) 공간에 매핑하여 시각화할 때 사용된다. 데이터 간의 유사성을 잘 유지하며, 군집화된 데이터의 패턴을 저차원 공간에서도 볼 수 있게 한다.

- PCA (Principal Component Analysis): 데이터를 저차원 공간으로 투영하면서 원래 데이터의 분산을 최대한 유지하려고 한다.

 
 

 

 

반응형

'AI' 카테고리의 다른 글

1.x TensorFlow 텐서 선언 방법  (0) 2024.09.24
머신러닝 ML 분류 예측  (1) 2024.09.20
Rule-based | Data-driven 접근법  (0) 2024.08.26
AND gate  (0) 2024.08.26
RNN 긍정/부정 여부를 분류하는 신경망 구조  (1) 2024.08.17