# Paper

283개의 포스트
post-thumbnail

[논문리뷰] Bridging the Gap Between Anchor-based and Anchor-free Detection via Adaptive Training Sample Selection , CVPR 2020

Bridging the Gap Between Anchor-based and Anchor-free Detection via Adaptive Training Sample Selection, CVPR 2020

약 1시간 전
·
0개의 댓글
·
post-thumbnail

[논문 리뷰] 360-MLC: Multi-view Layout Consistency for Self-training and Hyper-parameter Tuning

Pre-trained model은 novel view position, different lighting conditions, severe object occlusion과 같은 문제들로 인해 새로운 도메인에서 예측 성능이 떨어진다.이를 보완하기 위해 target dom

5일 전
·
0개의 댓글
·

[논문리뷰] End-to-End Object Detection with Transformers

Facebook AI | ECCV 2020 > DETR (DEtection TRansformer) > - Object detection as a direct set prediction problem > - Set-based global loss, bipartite m

5일 전
·
0개의 댓글
·
post-thumbnail

[Paper] Swin Transformer (v1, v2)

CNN 계열부터 transformer 계열까지 다양한 이미지 모델들이 발표되었지만 classification model 과 segmentation, object detection model 은 분리되어 개발되어 왔습니다. classification model 과 seg

2023년 3월 12일
·
0개의 댓글
·
post-thumbnail

[paper] Encoder-based Domain Tuning for Fast Personalization of Text-to-Image Models(2023.02)

[paper]An Image is Worth One Word(2022) - Textual Inversion의 후속 논문

2023년 3월 8일
·
0개의 댓글
·

[논문리뷰] An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale

[Google Research,Brain Team | ICLR 2021] Vision Transformer (ViT)

2023년 3월 5일
·
0개의 댓글
·

AI Paper Summary - On the Measure of Intelligence, November 5, 2019 (Francois Chollet / Google. Inc.)

<Reference: https://arxiv.org/abs/1911.01547>

2023년 3월 4일
·
0개의 댓글
·

[논문리뷰] Swin Transformer: Hierarchical Vision Transformer using Shifted Windows

[Microsoft Research Asia | ICCV 2021] General-purpose Transformer backbone for Computer Vision

2023년 3월 1일
·
0개의 댓글
·
post-thumbnail

논문분석 Swin Transformer: Hierarchical Vision Transformer using Shifted Windows

요즘 ViT를 활용한 Image Classification을 하고 있는데 ViT의 발전된 형태가 Swin이며 SOTA 모델임을 들었다. 그래서 논문을 통해 Swin Transformer을 잘 이해해보고 싶어서 공부하게 되었다. Abstract 이 논문은 Swin T

2023년 2월 24일
·
0개의 댓글
·
post-thumbnail

논문 분석: Language Models are Few-Shot Learners

저번 스터디때 DALL-E 모델 설명을 들었었는데 VAE 개념이나 GPT-3 개념이 제대로 없어서 이해하는게 쉽지 않았다. 그래서 이번 기회에 GPT-3를 확실히 배우고 DALL-E 같은 복합적 모델을 이해해보고자 한다. Background language model

2023년 2월 15일
·
0개의 댓글
·

SKEE: A Lightweight Secure Kernel-level Execution Environment for ARM

This post is a personal summary of SKEE: A Lightweight Secure Kernel-level Execution Environment for ARM.IsolationFirst step \- Create a protected vi

2023년 2월 13일
·
0개의 댓글
·
post-thumbnail

[논문정리] MaskGIT: Masked Generative Image Transformer

Abstract 1. Introduction 2. Related Work 2.1 Image Synthesis 2.2. Masked Modeling with Bi-directional Transformers 3. Method 3.1. MVTM

2023년 2월 10일
·
0개의 댓글
·
post-thumbnail

[논문정리] Masked Autoencoders Are Scalable Vision Learners

Abstract 본 논무에선느 masked autoencoder(MAE)를 소개하고 있습니다. 대략적으로 이 논문의 중요한 두가지 디자인은 Asymmetric한 encoder-decoder 구조를 가지고 있어서, encoder는 mask token이 없는 visibl

2023년 2월 10일
·
0개의 댓글
·
post-thumbnail

[논문정리] A Lip Sync Expert Is All You Need for Speech to Lip Generation In The Wild

Abstract In this work, we investigate the problem of lip-syncing a talking face video of an arbitrary identity to match a target speech seg- ment. Cur

2023년 2월 10일
·
0개의 댓글
·
post-thumbnail

논문분석: Batch Normalization : Accelerating Deep Network Training by Reducing Internal Covariate Shift

스터디원의 발표였던 Batch Normalization 논문을 스티디원 발표의 순서에 따라 정리해보겠다.학습 속도 개선 -> 큰 learning rate 사용 가능가중치 초기화에 대한 민감도 개선Regularization(일반화) 효과When the input dist

2023년 2월 7일
·
0개의 댓글
·
post-thumbnail

논문 분석: Generative Adversarial Nets

그저께 스터디에서 스터디원이 GAN논문을 발표했다. GAN의 대략적 내용은 알지만 Unsupervised Learning 이라는 점에서 굉장히 특별하고 유용하기 때문에 그 내용을 자세히 들여다 보고자 나도 논문을 읽어보았다.adversarial process -> si

2023년 2월 1일
·
0개의 댓글
·
post-thumbnail

논문 분석: Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning

오늘은 스터디원이 발표 예정인 논문을 직접 읽어보려고 한다. 기본적으로 알고가야할 부분인거 같다. uncertainty의 유형 Out of distribution test data 한번도 학습할 때 사용하지 못한 유형의 데이터가 테스트 시 사용되는 경우 Ex) 여러

2023년 2월 1일
·
0개의 댓글
·
post-thumbnail

논문분석: Playing Atari with Deep Reinforcement Learning

요즘 아주 Hot한 강화학습을 리뷰하기 위해 가장 기본이 되는 논문을 읽어보았다.강화학습을 사용해 학습하는 최초의 모델 제시.Q-Learning의 변형으로 만든 convolutional neural network Input은 Pixel이지만 output은 미래의 rew

2023년 1월 31일
·
0개의 댓글
·
post-thumbnail

[Review] CoCa(ing)

CoCa: Contrastive Captioners are Image-Text Foundation Models 논문 바로가기 git-hub 바로가기 Review Preknowledge >- Transformer-Encoder Abstract >

2023년 1월 28일
·
0개의 댓글
·