# sigmoid

17개의 포스트

logit과 sigmoid와 softmax

logit과 sigmoid 함수는 서로 역함수의 관계이다.logit은 logist + probit의 합성어로, 오즈에 자연로그를 취한 것이다.여기서 오즈(odds)란, 클래스 $C_1, C_2$가 있을 때 $C_2$로 분류될 확률에 대한 $C_1$으로 분류될 확률을 의

2023년 2월 13일
·
0개의 댓글
·
post-thumbnail

[LGaimers] 딥러닝 - (2) Training NN

Deep learning을 학습하기 위한 구체적인 기법들Gradient descentBack propagationGradient vanishing & batch normalizationLoss function이 최소화가 되도록!loss function에 대해서 각각의

2023년 1월 22일
·
0개의 댓글
·
post-thumbnail

Activation Functions

Activation Functions logistic regression에서 linear transformation 결과에 적용한 non-linear transformation인 sigmoid함수가 activation function에 해당된다. activation f

2022년 4월 16일
·
0개의 댓글
·
post-thumbnail

[밑바닥부터 시작하는 딥러닝] 3. 신경망 part1 - 활성화 함수, 3층 신경망 구현

🌿 신경망 퍼셉트론에서 가중치를 설정하는 작업은 여전히 사람이 수동으로 해야했음 → 신경망은 가중치 매개변수의 적절한 값을 데이터로부터 자동으로 학습 아래 그림은 신경망의 예시 중 하나이다. 활성화 함수 activation function 입력 신호의 총합을 출

2022년 3월 4일
·
0개의 댓글
·
post-thumbnail

모두를 위한 딥러닝 시즌 1 ML lec 6

저번 강의에서 우리는 binary classification에 대해 공부했었다. binary classification은 한가지 기준으로 그렇다/아니다를 판별하는 것이었다. 그런데 2가지 이상에 대해서 판별하려면 어떻게 해야할까?

2021년 12월 29일
·
0개의 댓글
·

[DL] sigmoid vs step function

이전 내용 참고https://velog.io/@u_jinju/DL-활성함수앞선에 작성했던 sigmoid와 step function 의 차이를 알아보려한다.제일 큰 것은 '매끄러움'의 차이.sigmoid는 곡선을 띄는 방면, step function은 각이져있다

2021년 11월 23일
·
0개의 댓글
·
post-thumbnail

[TIL] 미분

📎Sigmoid 함수 미분 정리: 수학적 정리📎Derivative of Sigmoid - 시그모이드 미분 함수: numpy 구현

2021년 9월 14일
·
0개의 댓글
·
post-thumbnail

Logistic Regression with a Neural Network mindset

아래서 사용하게 될 "data.h5" 데이터셋은cat (y=1)과 non-cat (y=0)으로 레이블된 m_train 트레인셋cat (y=1)과 non-cat (y=0)으로 레이블된 m_test 테스트셋각각의 이미지는 (num_px, num_px, 3)의 shape을

2021년 8월 17일
·
0개의 댓글
·
post-thumbnail

Python Basics with Numpy

sigmoid_derivative(x)=f(x)(1-f(x))(length, height, 3)를 넣으면 벡터값(length x height x3, 1)을 리턴해주는 함수axis = 1, keepsdim =1 에 대한 설명은 여기 참고하면 도움이 된다.

2021년 8월 17일
·
0개의 댓글
·
post-thumbnail

선형 회귀와 로지스틱 회귀

이번 포스팅에서는 선형회귀(Linear Regression)와 로지스틱 회귀(Logistic Regression)에 대해 알아보려 한다. 회귀(Regression) 회귀분석(Regression Analysis) 이란 통계학에서 전통적으로 많이 사용되던 분석 방법이다.

2021년 7월 23일
·
0개의 댓글
·
post-thumbnail

모두를 위한 딥러닝 시즌 1 :: ML lec 10

Activation Function Activation Function : 특정 값을 넘어가거나 도달하면,

2021년 7월 12일
·
0개의 댓글
·
post-thumbnail

[딥러닝] 성능향상(활성함수)

입력값과 가중치를 곱해주고 활성함수를 위한 b(bias)를 더해준 값을 활성함수에 입력함활성함수는 입력에 가중치가 곱해서 나온값의 정도를 결정해서 다음으로 넘겨줌!선형함수에서 ReLU까지 활성함수가 발전해온 과정sigmoid와 계단함수 같은 경우 값이 너무 작거나 너무

2021년 7월 7일
·
0개의 댓글
·
post-thumbnail

딥러닝 - 활성함수 (Activation function)

퍼셉트론 복습, 활성화 함수의 정의, 활성화 함수 종류 및 구현(계단함수, 시그모이드, ReLU)

2021년 6월 24일
·
1개의 댓글
·
post-thumbnail

RELU Function

Sigmoid Function이란? 로지스틱 함수에서 선형예측 결과를 확률로 변환하는 함수로, 0과 1 사이의 값으로 값을 변환해준다.문제점: Sigmoid 함수를 사용하면 gradient 함수를 이용해서 back propagation을 진행할때, sigmoid함수를

2021년 5월 17일
·
0개의 댓글
·

logit, sigmoid, softmax의 관계

왜 NN의 출력층에 sigmoid, softmax 함수를 사용할까요? 이는 출력층의 값을 '확률'로서 표현하기 위한 필연적 결과입니다. 본 글에서는 logit, sigmoid, softmax의 관계에 대해서 정리해보았습니다.

2020년 6월 6일
·
0개의 댓글
·