# Normalization

32개의 포스트
post-thumbnail

[ML]정규화(normalization)와 표준화(standardization)는 왜 하는걸까?

exploration을 진행하다보니 **인공지능 모델을 훈련시키고 사용할 때, 일반적으로 입력은 0 ~ 1 사이의 값으로 정규화 시켜주는 것이 좋습니다.** 라는 말을 봤는데, 그 말에대한 설명이 없어 개인적으로 공부한 내용을 정리한다. 핵심만 먼저 말하자면, 정규화

2022년 5월 12일
·
0개의 댓글
post-thumbnail

Regularization이란 무엇인가?

학습 시 오버피팅을 방지하기 위해 가중치에 패널티를 주는 방식으로 사용됩니다. 그 방법의 예로는 L1&L2 Regularization, dropout, early stopping, weight decay 등이 있습니다.공통점오버피팅을 방지하기 위함에 목적이 있습니다.한

2022년 5월 4일
·
0개의 댓글
post-thumbnail

[데이터베이스]정규화(Normalization)

데이터들을 최대한 중복을 제거하여 이상 현상 ( Anomaly ) 을 방지하기 위한 기술중복된 데이터를 허용하지 않음으로써 무결성(Integrity)를 유지할 수 있으며, DB의 저장 용량 역시 줄일 수 있다.갱신 이상 ( Modification Anomaly )중복된

2022년 4월 23일
·
0개의 댓글
post-thumbnail

데이터베이스 정규화

데이터베이스 정규화란? 데이터베이스의 중복을 최소화하여 저장 효율을 높이고 연산 시 이상 현상을 최소화할 수 있는 논리적 구조로 변환시키는 작업 데이터베이스 정규화의 장점 데이터베이스의 일관성을 향상 시킬 수 있다. 데이터베이스의 확장성을 보장할 수 있다. 데이터베이

2022년 4월 18일
·
0개의 댓글
post-thumbnail

Text preprocessing #3

정제(Cleaning) and 정규화(Normalization) = 머신러닝에 대해 조금이라도 공부해본 사람이라면 표준화와 정규화는 정말 수도없이 들어봤을거라 생각한다.혹시나 궁금해할 분들을 위해 잘정리된 글도 준비해 보았다! 표준화와 정규화 하지만 이번시간에 우리가

2022년 4월 6일
·
0개의 댓글
post-thumbnail

Introduction to NLP

본 내용은 'Natural Language Processing with Dan Jurafsky and Chirs Manning, 2012'의 내용을 다룹니다.

2021년 12월 27일
·
0개의 댓글
post-thumbnail

Normalization trend

기존 연구들은 training time을 줄이는 방법으로 batch normalization을 제안했었습니다. 그러나 batch normalization은 몇 가지 문제점을 가지고 있다고 저자는 지적합니다. batch normalization은 mini-batch si

2021년 12월 27일
·
0개의 댓글
post-thumbnail

[TIL] Normalization, Batch Normalization

정규화'정규화'라고 번역이 되는데 Regularization, Standardzation과 차이가 무엇일까?Normalization : 값 범위를 왜곡시키지 않고 데이터셋을 공통 스케일로 변경하는 것.ex. KNN, K-means 등 distance based algo

2021년 12월 19일
·
0개의 댓글
post-thumbnail

MySQL - 4NF, 5NF

MVD 는 Multivalued Dependency 를 의미한다. 이전에 FD, Functional Dependency 는 Y = f(X) 를 의미하며 X → Y 로 표기하였다. MVD 는 FD 의 Generalization 인데 기존에 FD 에서 X 의 값에 대해

2021년 12월 10일
·
0개의 댓글
post-thumbnail

MySQL - Functional Dependency, Normal Form

functional-함수, dependency-종속 이라는 두 단어를 통해 연상해보면 어떠한 종속성이 존재하는데 그 종속의 형태가 함수의 성질이 아닐까 하고 추측 할 수 있다.Functional Dependencyrelation R 과 R 의 attributes sub

2021년 12월 10일
·
0개의 댓글
post-thumbnail

Is Normalization Indispensable for Training Deep Neural Networks? Review

https://papers.nips.cc/paper/2020/file/9b8619251a19057cff70779273e95aa6-Paper.pdfNeurIPS2020 OralNormalization 없이 학습을 진행했을 때 performance degradat

2021년 11월 27일
·
0개의 댓글

Normalization in DBMS: 1NF, 2NF, 3NF and BCNF

DB 정규화

2021년 11월 13일
·
0개의 댓글
post-thumbnail

TIL - 데이터베이스 정규화

관계형 데이터베이스의 설계에서 중복을 최소화하게 데이터를 구조화하는 프로세스를 정규화(Normalization)라고 한다....

2021년 11월 8일
·
0개의 댓글

이미지 전처리

resize 228x228로 사이즈 조정.ToTensor()로 이미지 ndarray를 tensor 형태로 변환.normalize(0.485, 0.456, 0.406, 0.229, 0.224, 0.225)이미지 전처리 1)이미지 픽셀의 평균, 표준편차를 계산해서 정규화.

2021년 10월 28일
·
0개의 댓글
post-thumbnail

kaggle 노트북 리뷰 01_Scaling과 Normalization

참고한 노트북 Data Cleaning Challenge: Scale and Normalize Data Scaling and normalization Scaling vs. Normalization: What's the difference? → 두 경우 모두 수치형

2021년 10월 7일
·
0개의 댓글
post-thumbnail

[논문리뷰]Semantic Image Synthesis with Spatially-Adaptive Normalization: GauGAN

Paper review for 'Semantic Image Synthesis with Spatially-Adaptive Normalization(SPADE)' : GauGAN

2021년 10월 5일
·
0개의 댓글
post-thumbnail

Batch Normalization - backpropagation 유도하기

Batch Normalization은 2015년에 제안된 이래로 꾸준히 쓰이고 있는 정규화 기법입니다. Backpropagation은 어떨지 살펴봅시다

2021년 9월 19일
·
0개의 댓글