# Normalization

[ML]정규화(normalization)와 표준화(standardization)는 왜 하는걸까?
exploration을 진행하다보니 **인공지능 모델을 훈련시키고 사용할 때, 일반적으로 입력은 0 ~ 1 사이의 값으로 정규화 시켜주는 것이 좋습니다.** 라는 말을 봤는데, 그 말에대한 설명이 없어 개인적으로 공부한 내용을 정리한다. 핵심만 먼저 말하자면, 정규화

Regularization이란 무엇인가?
학습 시 오버피팅을 방지하기 위해 가중치에 패널티를 주는 방식으로 사용됩니다. 그 방법의 예로는 L1&L2 Regularization, dropout, early stopping, weight decay 등이 있습니다.공통점오버피팅을 방지하기 위함에 목적이 있습니다.한

[데이터베이스]정규화(Normalization)
데이터들을 최대한 중복을 제거하여 이상 현상 ( Anomaly ) 을 방지하기 위한 기술중복된 데이터를 허용하지 않음으로써 무결성(Integrity)를 유지할 수 있으며, DB의 저장 용량 역시 줄일 수 있다.갱신 이상 ( Modification Anomaly )중복된

데이터베이스 정규화
데이터베이스 정규화란? 데이터베이스의 중복을 최소화하여 저장 효율을 높이고 연산 시 이상 현상을 최소화할 수 있는 논리적 구조로 변환시키는 작업 데이터베이스 정규화의 장점 데이터베이스의 일관성을 향상 시킬 수 있다. 데이터베이스의 확장성을 보장할 수 있다. 데이터베이

Text preprocessing #3
정제(Cleaning) and 정규화(Normalization) = 머신러닝에 대해 조금이라도 공부해본 사람이라면 표준화와 정규화는 정말 수도없이 들어봤을거라 생각한다.혹시나 궁금해할 분들을 위해 잘정리된 글도 준비해 보았다! 표준화와 정규화 하지만 이번시간에 우리가

Introduction to NLP
본 내용은 'Natural Language Processing with Dan Jurafsky and Chirs Manning, 2012'의 내용을 다룹니다.
.png)
Normalization trend
기존 연구들은 training time을 줄이는 방법으로 batch normalization을 제안했었습니다. 그러나 batch normalization은 몇 가지 문제점을 가지고 있다고 저자는 지적합니다. batch normalization은 mini-batch si

[TIL] Normalization, Batch Normalization
정규화'정규화'라고 번역이 되는데 Regularization, Standardzation과 차이가 무엇일까?Normalization : 값 범위를 왜곡시키지 않고 데이터셋을 공통 스케일로 변경하는 것.ex. KNN, K-means 등 distance based algo

MySQL - 4NF, 5NF
MVD 는 Multivalued Dependency 를 의미한다. 이전에 FD, Functional Dependency 는 Y = f(X) 를 의미하며 X → Y 로 표기하였다. MVD 는 FD 의 Generalization 인데 기존에 FD 에서 X 의 값에 대해

MySQL - Functional Dependency, Normal Form
functional-함수, dependency-종속 이라는 두 단어를 통해 연상해보면 어떠한 종속성이 존재하는데 그 종속의 형태가 함수의 성질이 아닐까 하고 추측 할 수 있다.Functional Dependencyrelation R 과 R 의 attributes sub
.png)
Is Normalization Indispensable for Training Deep Neural Networks? Review
https://papers.nips.cc/paper/2020/file/9b8619251a19057cff70779273e95aa6-Paper.pdfNeurIPS2020 OralNormalization 없이 학습을 진행했을 때 performance degradat

TIL - 데이터베이스 정규화
관계형 데이터베이스의 설계에서 중복을 최소화하게 데이터를 구조화하는 프로세스를 정규화(Normalization)라고 한다....

[코드리뷰] Semantic Image Synthesis with Spatially-Adaptive Normalization: GauGAN
Code review for SPADE
이미지 전처리
resize 228x228로 사이즈 조정.ToTensor()로 이미지 ndarray를 tensor 형태로 변환.normalize(0.485, 0.456, 0.406, 0.229, 0.224, 0.225)이미지 전처리 1)이미지 픽셀의 평균, 표준편차를 계산해서 정규화.

kaggle 노트북 리뷰 01_Scaling과 Normalization
참고한 노트북 Data Cleaning Challenge: Scale and Normalize Data Scaling and normalization Scaling vs. Normalization: What's the difference? → 두 경우 모두 수치형

[논문리뷰]Semantic Image Synthesis with Spatially-Adaptive Normalization: GauGAN
Paper review for 'Semantic Image Synthesis with Spatially-Adaptive Normalization(SPADE)' : GauGAN

Batch Normalization - backpropagation 유도하기
Batch Normalization은 2015년에 제안된 이래로 꾸준히 쓰이고 있는 정규화 기법입니다. Backpropagation은 어떨지 살펴봅시다