Controllable Invariance through Adversarial Feature Learning (NIPS 2017)개인적으로 필요한 내용만 요약정리하였기에 생략된 부분이 다소 존재합니다.Invariant Representation LearningAdver
AI fairness에 관하여 자료를 찾다 발견한 좋은 공개강좌. CS 335: Fair, Accountable, and Transparent (FAccT) Deep Learning, 2020s. 시간날때마다 틈틈히 필요한 lecture들을 듣고 정리해두면 좋을 것 같
Fairness by Learning Orthogonal Disentangled Representations (ECCV 2020)fairness와 disentanglement를 주제로 연구하고싶어 찾아읽게 되었다.disentangling을 위해 도입한 참신한 아이디어를
HOTR: End-to-End Human-Object Interaction Detection with Transformers (CVPR 2021)거의 처음? 읽어본 detection 관련 논문. 아이디어와 방법론 위주로 간략하게 리뷰해보겠다.(실험 결과 등은 모두 생략
인상깊었던 내용위주로 짧게 정리하였습니다. (논문 자체가 내용이 많지 않기도합니다)MLP만을 main block으로 사용한 매우 심플한 vision modelCNN, Transformer base 모델과 견줄만한 성능핵심아이디어 : image를 작은 patch들로 쪼
original paperVAE를 통해 학습하는 Latent Space에서의 Representation이 Consistency를 갖도록 제약하는 방법을 제안.매우 단순하게 목적함수에 규제 term 하나를 추가하는 것으로 가능.아이디어 : original input과 그
original papermanual한 정보/제약의 주입이나, task-specific한 구조에 의존하지 않고 스스로 automatic하게 적절한 정도의 invariance를 학습하는 프레임워크를 제안.parameterized된 augmentation 분포를 학습시키고
original paper다방면으로 fair한 예측 알고리즘을 만들기 위해 disentangled representation을 학습하는 새로운 VAE 변형모델(FFVAE)을 제안한 논문section3. related work 생략reconstruction과 predic
original paperSec5. related work는 생략하였습니다.처음 읽어보는 fairness 관련논문! 흥미로웠다!! 레퍼런스에 읽어보고 싶은 논문들이 너무많음.최근 disentangled representation을 학습시키는 것이 주목받고 있음. 이것을
original paper 안그래도 어려워보였는데, 정신적으로 많이 힘들 때 읽어서 더 어렵게 느껴졌던 논문..^_^ Abstract 독립적인 변동인자들로부터 생성된 데이터에 대해 disentangled representation을 비지도학습 방식으로 얻어내고자 하는
original paper현대 computer vision의 기본적인 building block으로 쓰이는 Convolution.그런데 Convolution으로는 입력 데이터상의 long-range dependency 식별에 어려움이 있다.이 문제를 해결하기 위한 다양
original paper : https://arxiv.org/pdf/1710.10196.pdf어려운 GAN훈련을 위해 새로운 train methodology를 제안한 논문으로, 생성 품질이나 훈련 비용측면에서 큰 개선을 가져와 이후의 GAN 연구들에 적지않은
original paper : https://arxiv.org/abs/1703.10593 pix2pix 저자들의 후속연구로써, 둘 모두 conditional gan을 이용한 image translation을 다루지만, paired dataset이 요구되었던 pix2pi
original paper : https://arxiv.org/abs/1810.04805자연어처리 과제가있어 그 유명한 버트를 이제서야 읽게되었다..ㅎ Transformer encoder part를 떼어와서 자연어 토큰들에 대한 representation le
모든 내용을 상세하게 커버하지는 않았습니다.제가 기억하고싶은 부분만 집중적으로 정리했습니다.original paper : Image-to-Image Translation with Conditional Adversarial Networks다양한 image-to-image
한줄요약: 모델 앙상블 시 대상 모델의 prediction값들을 averaging 하지 말고 모델들의 weight를 averaging 하자. \[paper]AbstractIntroductionRelated WorkStochastic Weight AverageExperi
기존의 Multi Head Attention(MHA)이 파라미터 사용 측면에서 비효율적인 측면이 있으며, 이를 head들간 공유가능한 파라미터를 사용함으로써 해소시키려는 시도의 논문이다. [paper] ICLR 2021에 제출되었으나 아래의 이유로 기각된 논문 ㅠㅠ
[Learning Structured Output Representation using Deep Conditional Generative Models, NIPS 2015] (https://papers.nips.cc/paper/2015/hash/8d55a249e6baa5
cs231n - Convolutional Neural Networks for Visual Recognition / 2017 spring Lecture2. Image Classification pipeline 내용을 요약/정리한 글입니다. Materials video s
InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets