# 2022

[NeurIPS 2022] Learning Latent Seasonal-Trend Representations for Time Series Forecasting
기존의 시계열 예측에서의 문제점들⚡ 기존의 시계열 예측 논문들에서는 Time-series distribution shift, long-term dependency를 포착하는 것이 힘들다는 등의 문제를 해결하고자 하는데, 이 논문에서는 많은 논문들이 사용하는 시계열 데이

[논문 정리] ConvNeXt(2022)
레퍼런스: "ConvNext: A ConvNet for the 2020s" Liu, Z., et al. (2022)

2022 F-UNIV CAMP 후기 + 정리
이글은 2022 F-UNIV CAMP 강연 내용을 기반으로 작성되었습니다.프로젝트를 같이 하고 있는 팀원에게 연락이 왔다 !그분도 대학생 프론트앤드 개발자이신데, 대학생 프론트앤드 개발자들을 위한 컨퍼런스를 발견하였다며 들어보라고 추천 해주셨다.그게 바로 2022 F-

RTMDet
Real-time instance segmentation에서 좋은 성능https://arxiv.org/pdf/2212.07784.pdf

[231006] XMem: Long-Term Video Object Segmentation with an Atkinson-Shiffrin Memory Model
Vanila semi-supervised object tracking.기존 Video Object Segmentation (VOS) 연구들은 하나의 feature memory만 사용했었음.1분 이상의 긴 video를 처리하기에 하나의 feature memory로는 충분

[230630] BEVDepth: Acquisition of Reliable Depth for Multi-view 3D Object Detection
dubbed BEVDepth, for camera-based Bird’s-Eye-View (BEV) 3D object detection.leveraging explicit depth supervision.또한, 카메라를 고려한 깊이 추정 모듈을 도입하여 깊이 예측 능력
[NLP] Improving Faithfulness in Abstractive Summarization with Contrast Candidate Generation and Selection (NAACL, 2022)
1) Faithfulness <=> Hallucination2) Abstractive summarization <=> Extract summarization원문에 제시된 정보와 일치하는 요약 생성하는거 어려움. 성능은 높아졌지만, hallucination 있

[230602]Unified Transformer Tracker for Object Tracking
SOT, MOT 에 대한 각각의 방법론은 다른 training datasets / 각 task의 tracking objects의 다름 때문에 서로 적용되기 어렵다.Unified Transformer Tracker(UTT) 제안다른 시나리오에서의 tracking 문제들의

첫 번째 회고
개발자로 취업을 한 뒤, 많은 사람들의 회고를 읽어 왔다. 개발자는 주변 개발자와 이야기를 많이 나누는게 중요하다고 하는데, 비교적 일찍 취업을 한 탓인지, 경험이 적어서 인지 주변에 아는 개발자가 별로 없어서 힘들 때마다 다른 사람들의 회고를 찾아 읽으며 공감과 위

2분만에 읽는 이직, 연애, 루틴으로 가득한 2년차 개발자의 2022년 회고록
안녕하세요. 2년차 백엔드 엔지니어 용태입니다.2022년은 저에게 많은 변화와 성장을 경험하게 해준 뜻깊은 한해였습니다.프로젝트 리드, 이직, 도메인과 언어 변경, 연애 시작, 새 루틴 설정 등 풍성한 변화로 가득찬 2022년을 정리하고 공유하는 차원에서 회고를 작성하
[NLP #8] How Far are We from Robust Long Abstractive Summarization? (EMNLP, 2022)
goal: abstractive summarization system의 수행결과를 human annotation 결과랑 비교해서 long document에 대해 얼마나 잘했는지 평가해본다. result: 비교해보니까 ROUGE result에서는 굿이었음. 그러니까 re
[Lab #3-1] When is BERT Multilingual? Isolating Crucial Ingredients for Cross-lingual Transfer (NAACL, 2022)
InversionPermutationTransliterationSyntaxBilingual ModelMonolingual Model
[Lab #2] Training language models to follow instructions with human feedback (NeurIPS, 2022)
paper: https://proceedings.neurips.cc/paper_files/paper/2022/file/b1efde53be364a73914f58805a001731-Paper-Conference.pdfBackground: LM 모델을 더 크게 만든

2022년 회고록, 이걸 이제 쓰니? (feat 멋사)
네, 그 사람 여기 있습니다. 벌써 2023년도 2개월 가까이 지나가는 시점에, 써야지... 써야지... 라고 했던 회고록, 지금이라도 써봅니다.🦁 회고록이라 쓰고 멋사라 읽는다.대학교 입학 후, 지금까지 뭐 하나 중심을 잡고 한 활동이 없었다. 1학년때는 학교 내

2022년 회고
개발자로 일하면서 회고를 처음 끄적여본다…어떻게 써야할지 막막하지만 하루빨리 쓰지 않으면 2023년 회고?를 써야 할 날이 올 것 같아 퇴근 후 샤워를 마치고 23시에 부랴부랴 바로 맥북을 열어서 써본다.2021년 12월에 H사에서 1년만에 퇴직을하고 2022년을 바로

2022년 회고
2022년에 나는 어떻게 살았을까 잘 살았나?사실 2023년이 된지 한 달이 넘었지만 작년 한 해를 돌아보는 것도 좋을 것 같아서 2022년 회고를 써보기로 결심했다.한 번 돌아보고 반성할 것 반성하고,, 칭찬할 것 칭찬해보자!1,2월에는 뭐했는지 기억이 안나서 일단