profile
Trendy AI Developer

튀는 loss잡기 , 성능과 데이터 크기

🎃🤖 데브코스 AI 5기 Monthly project #2 (Boston) 진행 중 발생한 궁금증 같은 모델(MLP)사용시 범주형 피처를 임베딩한 방법이 원핫인코딩 방식보다 loss가 약 1.46배 높게나오고 val_loss가 튐 각각 최적화 진행함 문제점 1. loss가 튀는 이유? trainloss는 수렴하는 반면 valloss는 심하게 튐(train_loss에 비해 바뀌는 소숫점 단위가 다름) 문제점 2. 임베딩 방식이 원핫인코딩보다 성능이 낮음 원핫인코딩과 임베딩은 모두 범주형 변수를 처리하기 위한 방법이다. 테스트할 Task 1. 배달 시간 예측 사용할 데이터 (17만개 = train + val + test)

2023년 5월 4일
·
0개의 댓글
·