# Data augmentation

21개의 포스트
post-thumbnail

NVIDIA:04 Data Augmention

NVIDIA 04: Data Augmentaion NVIDIA의 Fundatmentals of Deep Learning:04 Data Augmentation 리뷰를 위한 글이다.

2022년 6월 8일
·
0개의 댓글
post-thumbnail

Problem Setting and Regularization

training을 하기 위해서 결정해야 할 것들이 정말 많지만 각 hyperparameter 사이에 dependency가 있기 때문에 guess가 매우 어렵다. 그렇기 때문에 실제로 machine learning은 굉장히 반복적인 작업이다. Dataset 좋은 cho

2022년 4월 17일
·
0개의 댓글
post-thumbnail

torchvision의 데이터 augmentation 기법들 살펴보기

다량의 양질의 데이터는 좋은 딥러닝 모델을 만드는데 필요조건입니다. 그런데 실제 산업 현장에서는 데이터가 충분히 확보 되어있지 않거나 명확히 분류되어있지 않은 경우가 많습니다. 특히, 공정과정에서 발생하는 이미지는 이런 경우가 비일비재합니다. 그러므로, 모델에 학습 시

2022년 4월 8일
·
0개의 댓글
post-thumbnail

CoDA: Contrast-Enhanced and Diversity-Promoting Data Augmentation for Natural Language Understanding (ICLR / 2021)

back-translation에 adversarial training을 sequential stacking하고 consistency loss와 contrastive loss를 이용하여 informative한 augmented data augmentation 기법을 제안

2022년 4월 3일
·
0개의 댓글
post-thumbnail

Adversarial Mixing Policy for Relaxing Locally Linear Constraints in Mixup (EMNLP / 2021) paper review

Mixup에서의 locally linear constraint를 완화하기 위하여 Adversarial Mixing Policy를 제안

2022년 4월 3일
·
0개의 댓글
post-thumbnail

Data Augmentation

일반적으로 딥러닝 모델을 학습시키기 위해서는 데이터셋이 필요하다.대표적인 이미지 데이터셋인 이미지넷(ImageNet)은 약 1,400만 장의 이미지를 가지고, CIFAR-10도 6만장의 이미지 데이터를 가지고 있다.문제는 큰 규모의 데이터셋을 만드는 것은 큰 비용이 드

2022년 3월 27일
·
0개의 댓글

Data Augmentation

Data Augmentation은 데이터셋을 여러 가지 방법으로 증강시키는(augment) 방법입니다. 우리는 Data Augmentation을 통해서 학습 데이터셋의 규모를 키울 수 있습니다. Data Augmentation을 통해 데이터셋의 규모가 커지면 overf

2022년 3월 25일
·
0개의 댓글
post-thumbnail

[정리] Clinical AI: Low Resource Technique, Tasks, Survey, Research, Data, Model, ...

정리 : Low Resource Technique(Data Augmentation), Representation, Survey, Model, Data, Other Technique.

2022년 1월 4일
·
0개의 댓글
post-thumbnail

review-rethinking pre-training and self-training

investigate self-tarining ans another method to utilize additional data on the same setup최근에 self-supervised learning과 같은 pretraining 방법론이 대두되고 있음.그러나

2021년 12월 31일
·
0개의 댓글

HiddenCut- Simple Data Augmentation for Natural Language Understanding with Better Generalization

본 포스트는 pre-trained language model을 task에 fine-tuning 수행 시, drop out을 기반으로 data augmentation을 하는 방법인 HiddenCut을 다룹니다.NLP에서 대용량의 데이터를 이용하여 large-scale의

2021년 11월 29일
·
0개의 댓글
post-thumbnail

[논문 리뷰] Data Augmentation for Deep Learning-Based Radio Modulation Classification - 2편

본 논문에서는 deep learning을 기반으로 한 modulation classification task에 적용할 수 있는 augmentation 기술들을 알아보았다. 대부분 실험에 대한 내용이니 1편을 읽고 오는 것을 추천한다.

2021년 9월 12일
·
0개의 댓글
post-thumbnail

[논문 리뷰] Data Augmentation for Deep Learning-Based Radio Modulation Classification - 1편

Abstract 최근 deep learning은 수신한 radio signal의 modulation category를 자동으로 분류하도록 적용되고 있다. 하지만 deep learning model을 학습하기 위해서는 매우 많은 data를 필요로 하는데, 충분치 못한

2021년 9월 10일
·
0개의 댓글

[AI] data augmentation: mixup

AI 경진대회 진행 중 data augmentation 방법 중에 하나인 mixup 코드 구현을 맡게 되었다. https://www.kaggle.com/kaushal2896/data-augmentation-tutorial-basic-cutout-mixup다음

2021년 9월 7일
·
0개의 댓글
post-thumbnail

논문리뷰 - Augerino / Learning Invariances in Neural Networks (NIPS 2020)

original papermanual한 정보/제약의 주입이나, task-specific한 구조에 의존하지 않고 스스로 automatic하게 적절한 정도의 invariance를 학습하는 프레임워크를 제안.parameterized된 augmentation 분포를 학습시키고

2021년 8월 25일
·
0개의 댓글

CNN 응용

Computer vision / Segmentation

2021년 6월 23일
·
0개의 댓글
post-thumbnail

[논문 리뷰] RICAP

이번 기계학습 프로젝트의 주제가 "data augmentation"였다. 프로젝트를 진행하기 위해 data augmentation에 대한 여러 논문들을 읽다가 찾은 "RICAP". 처음 이 논문을 읽을때 내가 기존에 생각하지 못했던 '중요하지 않은 정보에 대한 필요성'

2021년 5월 18일
·
0개의 댓글

[paper-review] Contextual Augmentation: Data Augmentation by Words with Paradigmatic Relations

Kobayashi, Sosuke. "Contextual augmentation: Data augmentation by words with paradigmatic relations." arXiv preprint arXiv:1805.06201 (2018).

2021년 2월 15일
·
0개의 댓글