# Norm

4개의 포스트
post-thumbnail

벡터개념 for AI

x = x_1, x_2, ... n차원 공간(원소의 개수n) 에서의 한 점1차원 : 스칼라2차원 : 평명3차원 : 입체원점으로 부터 상대적 위치 => 숫자(스칼라)를 곱해주면 길이만 변함 (벡터의 스칼라곱)a > 1 : 길이가 들어나고a < 1 : 길이가 줄어들

2022년 1월 18일
·
0개의 댓글
·
post-thumbnail

[Boostcamp AI Tech] AI Math 1강

[Boostcamp AI Tech] 벡터가 뭐예요?

2022년 1월 17일
·
0개의 댓글
·
post-thumbnail

L2 norm vs L1 norm

L1 norm vs L2 norm / L1 Regularization vs L2 Regularization

2021년 11월 16일
·
0개의 댓글
·
post-thumbnail

[딥러닝] Norm, Loss, Regularization

1. Norm Norm은 벡터의 크기(길이)를 측정하는 방법(함수)이다. 즉, 두 벡터 사이의 거리를 측정하는 방법이다. 그림 1 위 식에서 p는 Norm의 차수를 의미한다. p=1 이면 L1 Norm이고, p=2 이면 L2 Norm이다. n은 해당 벡터의 원소

2021년 7월 31일
·
0개의 댓글
·