Week11 주간 회고

Jihoon·2022년 12월 4일
0

주간회고

목록 보기
7/9

✨ 한 주 요약

폭풍전야
다시 새로운 시작
LG AI 아이들나라 대회 마무리 하고, 남은 DKT 진행

✨ 잘했던 점

  1. 마지막까지 LG 아이들나라 AI Contest에 집중하여, Valid set을 날짜를 기준으로 SPlit을 진행하고, 많은 시청한 유저에게 가중치가 커지는 영향을 줄이기 위해 유저별 데이터를 일정하게 설정하여 모델을 학습하였다.
    → 성과에 있어서는 일반화 성능을 향상시켰지만(이전에는 말도 안되게 성능의 차이가 심했다,, 과적합), 실제 PUBLIC 성능은 조금 떨어졌고 크게 진전이 없었다.

  2. Kaggle의 Riiid 대회의 LGBM Feature Engineering을 참고하여 FE를 진행하였고, 실제 결과에 있어서도 부스팅 성능에 있어서 최고의 성능을 나타냈지만 실제 대회의 순위를 올리기엔 역부족이였다.
    → FE를 진행하였고, 모델링을 진행하였다.

  3. Optuna를 적용하여 CV를 진행하였다.

  4. 최근, 같이 공모전을 나갔던 학교 후배들과 SQL 스터디를 매주 일요일에 진행하고 있는데, 이번 주가 2주차인데 다들 열심히 해줘서 고맙다.

😂 아쉬운 점 & 보완할 점

  1. LG, DKT 모두 열심히하고 있지만, 괄목할 결과를 못보여주고 있다. LG는 이미 끝이났다. DKT는 비록 LG 대회에 집중하느라 많은 노력을 기울이지 못했지만, 그래도 기대했던 결과와 괴리감이 커서 상심이 크다.
    → 모델이 성능에 집착하지 말라고 하지만, 솔직히 다른 캠퍼들도 비슷하게 느끼듯이 기분이 썩 좋진않고, 의욕 역시 하락하는건 어쩔 수 없는 것 같다. 이를 극복하기 위해 계속 노력을 해야할 것 같다.

  2. Optuna를 적용하여 best parameters 통해서 CV를 계속 진행함에도 불구하고, 오히려 기본 세팅의 파라미터에서 모델의 성능보다 결과가 좋지않다.

1차적으로는 Train Data를 기존의 Valid Data를 포함하여(Test data 마지막 두 번째)진행해서 성능이 안좋아졌을 것이다.

2차적으로는 Hyper parameter의 종류가 기존의 모델과 다른 종류로 하이퍼 파라미터 최적화를 진행하였는데, 각각의 하이퍼 파라미터의 기능을 인지하고 적용할 필요가 있다.

  1. Coding Test 준비를 매일 한 문제씩을 풀려고 했는데, 막상 하려고 하니 귀찮아서 안하게 된다. 매일 한 문제만 풀어도 2월 중순엔 80문제는 풀텐데...

→ 오늘부터 진행할 것이다. 현재 시각 12/5 AM 7:54.

🙂 느낀점

이번 주에 느낀 점은 기대한 모델의 결과 값이 안나와서, 그 기대에 의해서 실망을 하게 되고, 의욕이 떨어지고, 오히려 공부 보다 즉각적으로 결과를 받을 수 있는 게임이나, 친구들 만나서 노는 방향으로 기존의 생활패턴과 다르게 지내게 되는 것 같다.

즉, 모델에게 기대를 하는 것. 이는 나의 노력에 대한 기대 값을 거는 것으로 어쩔 수는 없지만, 이를 적당히 조절할 필요가 있고, 역으로 더 열심히 할 수 있는 기회로 만들어야 한다.

AI쪽으로 진로를 선택한 이상, 이러한 불편한 진실도 그대로 받아들일 필요가 있다. 많은 가설들을 세우고, 실패하고, 다시 시도하면서 경험을 계속 쌓아야하고, 빠르게 다른 여러 가설들을 진행할 역량을 기르는 과정이라 생각한다.

자주 가는 스터디카페 사장님이 종종 커피를 공짜로 주시는데, 참.. 힘들지만 이런 하나의 행동 하나에 차가운 마음이 바로 녹는다. 너무 감사합니다.

이상, 폭풍이 지나간 이번 주 한 주 마무리. 다시 시작.

profile
장난감이 데이터인 사람

0개의 댓글