Abstract
다양한 출처와 type을 가진 Tabular data를 처리하는 것은 Deep learning model에게 어려움. 반면, Attention 기반 구조의 Self-supervised learning 방식은 큰 성공을 거두었지만 Tabular data를 처리하는 데 있어서 기본적인 Linear 와 Tree 기반 구조보다 덜 효과적임.
Tabular data를 Image, Language, Graph 등의 단일 형태로 변환하는 모델을 통해 성능 향상이 있었지만, Heterogeous 특성을 가진 데이터에는 성능이 하락하는 결과를 보임. 이를 극복하기 위해 본 논문에서는 TabGLM을 제안하며 이는 Data의 각 행을 Fully-connected graph와 직렬화된 Text로 변환한 다음, 각각 GNN과 Text encoder를 사용하여 인코딩을 진행 함. 본 제안 모델은 25개의 Benchmark dataset에 대해서 상당한 성능 향상을 보여주며 SOTA를 달성함
Contributions
- Tabular data의 각 행을 Graph와 Text로 변환하여 구조적, 의미적 특징을 모두 포착하는 Multi-modal method를 제안함
- 본 논문에서 활용하는 MUCOSA는 두 가지 Modality의 정보 융합을 지원하는 동시에 overfitting을 완화하는 정규화 전략으로 작동함
- Pre-trained text encoder를 활용하여 학습 가능한 파라미터의 숫자를 효과적으로 낮출 수 있음
- 25개의 Benchmark dataset에 대해서 성능 향상을 이루었고, SOTA 성능을 달성함






