# Regularization

33개의 포스트
post-thumbnail

L2 Regularization과 SGD Weight decay가 같다?

이 글에서는 L2 regularization과 SGD에서의 weight decay가 같은 동작을 하는 것을 증명해보려고 합니다.

2023년 10월 25일
·
0개의 댓글
·
post-thumbnail

Week 1 | Practical Aspects of Deep Learning | Setting up your Machine Learning Application

When training a neural network, you have to make a lot of decisions,such asthe number of layersthe number of hidden unitslearning ratesactivation func

2023년 7월 15일
·
0개의 댓글
·
post-thumbnail

정규화

목표: Regularization의 의미와 기법들에 대한 이해테스트 에러를 줄이는 전략 (= 일반화 오류)train error가 증가할 수 있다.왜? → 머신러닝의 목적은 트레이닝 데이터 뿐만 아니라 새로운 입력에서도 성능을 향상시키는 것이기 때문이다.머신 러닝 모델에

2023년 6월 24일
·
2개의 댓글
·

[DL] Regularization (L1 Regularization, L2 Regularization)

overfitting을 막기 위해 위해 사용하는 방법: 벡터의 크기를 측정하는 방법 (두 벡터 사이의 거리를 측정하는 방법): 벡터 p, q의 각 원소들의 차이의 절대값의 합: q가 원점이라고 했을 때, 벡터 p, q의 원소들의 원점으로부터의 직선거리: 모델 복잡도에

2023년 1월 28일
·
0개의 댓글
·

최적화 - Regularization

generalization gap 을 줄이기 위해 사용파라미터들이 너무 커지지 않게 파라미터들의 제곱을 더해서 패널티로 부여데이터를 늘려서 deep learning의 이점을 극대화 할 수 있음.노이즈를 train data, weight에 주게 되면 성능이 올라가는데 이

2023년 1월 6일
·
0개의 댓글
·
post-thumbnail

[딥러닝 기초 다지기] - 최적화

부스트코스 강의 딥러닝 기초 다지기 중 '최적화의 주요 용어 이해하기, Gradient Descent Methods, Regularization'를 정리한 내용이다.GeneralizationTraining error가 0에 가까워도 test error가 커 genera

2022년 12월 26일
·
0개의 댓글
·

Regularization

early stoppingdropoutweight decayingL1 : 가중치를 0으로 만드는 경향L2 : 매끄럽게.. 소극적 반영L1L2batch normalization : 틀에 맞춘다.. → regularization(억제) 효과서로 다른 크기를 같은 scale

2022년 12월 19일
·
0개의 댓글
·
post-thumbnail

Regularization : L1 규제(Lasso), L2 규제(Ridge)

모델이 과적합되게 학습하지 않고 일반성을 가질 수 있도록 규제 하는 것을 말합니다.데이터의 피쳐를 손대지 않고 제너럴하게 만드려면 기울기(가중치)를 건드리면 안되고 사용하는 것이 Lasso와 Ridge입니다.w는 가중치를 의미합니다.MSE에 알파를 곱한 L1규제항을 더

2022년 11월 18일
·
0개의 댓글
·
post-thumbnail

파이썬 머신러닝 완벽 가이드 - 6. Regression(2) (규제, 로지스틱회귀, 회귀 트리 및 예제)

: $w^2$에 대해 패널티를 부여하는 방식. 주요 생성 파라미터는 alpha로, alpha가 커질 수록 회귀 계수 값을 작게 만든다.$RSS(w) + alpha\*||w||\_2^2$ 식을 최소화하는 w를 찾는 것: $|w|$에 패널티를 부여하는 방식. 불필요한 회귀

2022년 10월 10일
·
0개의 댓글
·
post-thumbnail

Problem Setting and Regularization

training을 하기 위해서 결정해야 할 것들이 정말 많지만 각 hyperparameter 사이에 dependency가 있기 때문에 guess가 매우 어렵다. 그렇기 때문에 실제로 machine learning은 굉장히 반복적인 작업이다. Dataset 좋은 cho

2022년 4월 17일
·
0개의 댓글
·

[DL-Basic 정리][Neural Network 최적화] Regularization 관련 주요 용어 정리

Regularization 이 글에서는 Neural Network을 최적화 하기위한 Regularization(정규화) 에 대한 주요 용어의 concept를 알아보도록 하자. 보통 Regularization 은 일반화(generalization) 가 잘되도록 하기 위

2022년 2월 8일
·
0개의 댓글
·
post-thumbnail

loss_Fun Bug를 잡자! Regularization

<SVM loss 구하는 공식> SVM loss를 사용하여 Loss=0 인 Weight 값을 구했다면 과연 Loss=0일 때 Weight 값이 유일한 값일까?!만약! Loss=0일 때 $Weight^2$ 을 한다면 Loss 값은?!즉, weight 를 제곱하여

2022년 1월 14일
·
0개의 댓글
·
post-thumbnail

모두를 위한 딥러닝 시즌 1 ML lec 7

저번 시간에 Cost 함수에 대해 배우고 Gradient descent은 못하고 지나쳤는데 이번 강의는 이에 대해 배운다. 우리는 Gradient descent 함수를 Cost 함수를 정의하고 값을 최소화하기 위해 사용한다.

2021년 12월 29일
·
0개의 댓글
·