# Coursera

136개의 포스트
post-thumbnail

Basic recipe for machine learning

Basic Recipe for ML ML을 학습시킬 때 다음과 같은 순서로 진행할 수 있다. 학습을 시킨다. 편향이 높은지를 확인한다. 2-1. 편향이 높다면 더 높은 네트워크를 사용하거나 오래 학습시켜서 잘 학습시켜지거나 최소한 오버피팅이 되도록 위 과정을 반복한다. 편향이 높지 않다면 variance가 높은지 확인한다. 3-1. 분산이 높다면 더 많은 데이터를 이용하여 훈련을 진행하거나 모델을 regulization 한다. variance, bias가 둘다 높지 않다면 학습을 마친다. bias and variance trade-off 이전의 ML 학습은 trade-off 에 대해서 많이 논의했다. 하지만 데이터의 수가 많아지고 모델의 네트워크가 점점 깊어지면서

2023년 9월 15일
·
0개의 댓글
·
post-thumbnail

Bias / Variance

Bias and Variance bias와 variance는 모델의 학습 상태를 나타낼 수 있는 좋은 척도이다. High Bias 데이터의 분포에 비하여 모델이 너무 간단한 경우, underfit이 발생한 경우를 말한다. High Variance 모델의 복잡도가 데이터 분포보다 커서 데이터를 overfitting 시키는 경우를 말한다. Best : Low Bias and Low Variance Worst : High Bias and High Variance Bias 와 Variance를 분석하여 알고리즘을 보다 체계적으로 개선할 수 있다.

2023년 9월 15일
·
0개의 댓글
·
post-thumbnail

Train/Dev/Test sets

Applied ML is a highly iterative process. 신경망을 학습할 때 많은 선택을 해야한다. layers hidden units learning rates activation functions 첫 번째 시도에서 이 모든것을 한번에 정확하게 맞추기란 굉장히 어렵다. 따라서 구체적인 아이디어(방법)을 제시하고 이를 학습에 적용하여 개선하는 방식은 굉장히 좋은 방식이다. 많은 전문가들이 이 같은 방법에 뛰어들고 있지만 어려운 작업이고, 현재 매우 반복적인 프로세스로 이루어진다. 이 반복 작업들을 효율적으로 하는 것이 굉장히 중요하고 train/dev/test dataset을 잘 설정하는 것은 중요하다. Train/dev/test sets

2023년 9월 14일
·
0개의 댓글
·
post-thumbnail

Coursera lecture note (Notation)

Notation 이번엔, 이 강좌에서 반드시 알아야 할 주요 표기법들에 대해 소개하겠습니다. 각 표기법은 기계 학습에서 중요한 역할을 하는 개념들을 나타냅니다. (x, y) 하나의 훈련 예제(training example)는 (x, y)로 표현되며, 여기서 x는 n_x차원의 특징 벡터(feature vector)이고, y는 라벨(label)로, 그 값이 0 또는 1이 될 수 있습니

2023년 9월 6일
·
0개의 댓글
·
post-thumbnail

Coursera lecture note (Binary Classification)

Binary Classification 대부분의 사람들이 한 번쯤은 보았을 법한 아래의 고양이 사진이 있습니다. 눈 앞에 펼쳐진 이 사진이 고양이 사진이라는 것을 우리는 쉽게 알 수 있습니다. 그러나 컴퓨터는 이 사진이 고양이를 나타내는 것인지 아닌지를 스스로 판단하기 어렵습니다. 이 문제를 해결하기 위해, 과학자들은 사진이 고양이인지 (1), 아니면 아닌지 (0)를 이진(두 가지)으로 분류하려 했습니다. 이 과정은 기계 학습(지도 학습)의 한 부분인 이진 분류(binary classification)에 해당됩니다. 예를 들어, 우리가 가지고 있는 고양이 사진의 픽셀 크기가 64x64이고, RGB 채널이 3개 있다고 가정해 보겠습니다.

2023년 9월 6일
·
0개의 댓글
·

Coursera lecture note (Introduction to Deep Learning)

뉴럴 네트워크란 무엇인가? 뉴럴 네트워크를 이해하기 위해서는, 먼저 이를 활용한 예제를 생각해보는 것이 좋습니다. 우리가 뉴럴 네트워크를 통해 주택 가격을 예측한다고 가정해 봅시다. 주택 가격에 영향을 미치는 다양한 특성이 있을 것입니다. 예를 들어, 평수, 방 갯수, 학군, 지하철 역과의 거리, 편의시설 등이 그러한 특성이 될 수 있습니다. 이러한 특성들을 뉴럴 네트워크의 입력값 x로 사용하면, 출력값 y로 주택 가격을 예측할 수 있습니다. 여기서 y는 예측하려는 주택 가격이며, 이 과정은 일반적인 함수와 비슷한 방식으로 이루어집니다. 그러면 이제, 일반적인 함수와 뉴럴 네트워크의 차이점에 대해 생각해 볼 수 있습니다. 일반적인 함수, 예를 들면, x + 2 = y 같은 함수에서는 y를 예측한다고 할 수 없습니다. 왜냐하면 +2를 하면 결과가 이미 정해져 있기 때문입니다. 하지만 뉴럴 네트워크의 경우, 이는 x + ? = y 형태로 표현될 수 있으며

2023년 9월 5일
·
0개의 댓글
·
post-thumbnail

[Coursera] (1) NN and DL - W3

[W3] Shallow Neural Networks 1. 2-layer NN 아래 그림과 같이 2-layer NN는 입력을 받는 input layer / hidden layer / predicted value ($\hat{y}$)를 generate하는 output layer 로 구성되어있다. *cf) 보통 layer의 개수를 셀 때는 input layer는 count 하지 않는다고 한다. 하나의 hidden unit (원형 node) 에서는 아래의 계산이 이루어진다: (1) $z$ 계산 $(z = w^{T}x)$ (2) $a$ 계산 $(a = \sigma(z))$ 각 layer의 차원을 살펴보면 다음과 같다: (Hidden layer) $w^{[1]}$는 4개의 hi

2023년 9월 5일
·
0개의 댓글
·
post-thumbnail

코세라 Deep Learning Specialization - Neural Network and DeepLearning(0)

시작하기 앞서.. 이번 가을에 어떤 공부를 해야 잘 했다고 소문이 날까... 고민도 하면서 앞으로 프로그래머로써 가져야할 소양은 뭘 키워야 할까도 고민을 하던 찰나...! 친구가 작년에 열심히 활동했던 구글 딥러닝 부트캠프를 소개해줬었다. 막상 이전에 창업 동아리 팀이나 소소하게 개인적으로 궁금했던 부분들을 pretrained model로 혼자 적용해보며 사용은 해봤지만, 우와! 하고 결과에 대해서 놀랄 뿐 실제로 내가 직접 모델의 구조를 파악해보거나 인공신경망의 이론적 배경을 더 파고들어 공부할려고 하진 않았었다. 그렇기에 ML DL RL 등.. 이런 단어들과 관련된 주제를 들을 때 마다 뭔가 아는 것 있는 것처럼 보이긴 했지만 실제로 알맹

2023년 9월 4일
·
0개의 댓글
·
post-thumbnail

[Coursera] (1) NN and DL - W1&2

강의 들으면서 중요한 것 & 알게된 것 & 느낀점 정리! [W1] Introduction to Deep Learning 정형 (Structured) 데이터 & 비정형 (Unstructured) 데이터 정형 데이터: databased of data. 각각의 feature가 매우 잘 정의 됨 비정형 데이터: raw audio, image, text 등의 데이터 [W2] Logistic Regression **1. Binary Classification **: 라벨이 1 or 0으로만 구성. 예를들어 고양이 인지(1) 아닌지(0) 구분하는 문제 **2. Logistic Regression **: Binary Classification을 하기 위해 활용됨. Output: $\hat{y}=sigmoid(W^Tx+b)$ -$W^Tx+b$ 출력을 0에서 1사이 값으로 mapping하기위해 sigmoid 사용 -$\hat{y}$ 는 x가 주어졌을

2023년 9월 1일
·
0개의 댓글
·
post-thumbnail

[coursera]Supervised Machine Learning: Regression and Classification#1

ML, DL, AI 아무것도 모르는 지금, 당장 해야할 건 공부뿐이라는 말에 정말 열심히 공부해보기로 했다. 그래서 우선 coursera의 설립자인 Andrew Ng 선생님의 ML 강의를 듣기로 했다. 처음 공부하기엔 어렵다곤 하는데 열심히 해야지.. 수료율 5프로 이하라곤 하지만 그 5프로 안에 들어봐야지.. 앤드류 선생님 힘을 주세요 ㅎㅎ.. 급하게 할 건 아니고 마지막 4-2 학기에 수업 들으면서 추가 전공 듣는 느낌으로 해보려 한다. 2-3개월정도? 이 정리노트는 수강하면서 생각나는거, 알아낸 거 막 적을거라 사실상 정리 노트보단 메모장 느낌이다. 아 그리고 전공에서 수학을 거의 안 배워서.. 수학과에서 열리는 선형대수랑 통계도 청강 신청해보려 한다. 이제서야 진짜 대학 공부를 하는 느낌 ㅋㅋ; What is machine learning? Arthur Samuel은 머신러닝에 대해 완전히 프로그래밍 되지 않은 채로 컴퓨터가 배울 수 있게 하는 학문이라고 하였다

2023년 8월 25일
·
0개의 댓글
·
post-thumbnail

뭐어~? Coursera 강의를 한국어로 들을 수 있다고?!?! (코세라 대학에 다니고 나의 성공시대 시작됐다🎤)

좋은 강의를 찾아 찾아 삼만리.... 드디어 찾았다 내 사람 아니 코세라. . 구독권 신청 (방법은 아래에!) 강의 추천을 여러 사람들에게 받던 중* K-MOOC 와 Coursera가 콜라보* 를 했다는 소식을 들었다. 내용은 K-MOOC의 후원으로 Coursera의 강의 중 일부를 한국어로 제공한다는 것이다. 영어를 못하진 않지만 아무래도 한국인 학습자 이다보니 한국어로 배울 때 더 빨리 배울 수 있는 건 어쩔 수 없는 사실이다. 그래서 꼭 구독권을 신청해서 수강할 수 있게 되면 그동안 이어드림스쿨에서 배웠지만 체계화되지 않은 지식을 좀더 체계화할 수 있지 않을 까라는 기대를 하면서 신청하고 잊었을 찰나.... . 글로벌 강의 학습자 선정 신청하고 몇 일이 지났는지도 모를 시간이 지

2023년 8월 21일
·
0개의 댓글
·

Data Science, IBM

https://www.coursera.org/programs/kmooc-coursera-learning-hub-rreuo/learn/what-is-datascience?authProvider=kmooc Course Syllabus Defining Data Science and What Data Scientists Do Defining Data Science What is Data Science? Fundamentals of Data Science The Many Paths to Data Science Advice for New Data Scientists Data Science: The Sexiest Job in the 21st Century What Do Data Scientists Do? A day in the Life of a Data Scientist Old problems, new problems, Data Sc

2023년 8월 1일
·
0개의 댓글
·
post-thumbnail

C2W2A1 Optimization Methods

Packages Gradient Descent 경사하강법의 update rule은 다음과 같다. for $l = 1, ..., L:$ $$\displaystyle W^{[l]} = W^{[l]} - \alpha \text{ } dW^{[l]}$$ $$\displaystyle b^{[l]} = b^{[l]} - \alpha \text{ } db^{[l]}$$ for 루프에서 반복자 l이 1에서 시작한다는 점에 유의하자 (첫번째 매개변수는 $W^{[1]}$, $b^{[1]}$이기 때문) (Batch) Gradient Descent: Stochastic Gradient Descent: SGD(Stochastic Gradient Descent)는 GD와 달리 전체 훈련세트가 아니라 하나의 훈련샘플만 사용하여 기울기를 업데이트한다. (미니배치 크기가 1인 미니배치 경사하강법이다) ![](https://velog.vel

2023년 7월 28일
·
0개의 댓글
·
post-thumbnail

C2W1A3 Gradient Checking

역전파 구현의 정확성을 확인하기 위해 경사 검사를 구현해보자 준비 미분의 정의는 다음과 같다. > $\displaystyle \frac{\partial J}{\partial \theta} = \lim_{\varepsilon \to 0} \frac{J(\theta + \varepsilon) - J(\theta - \varepsilon)}{2 \varepsilon}$ 1-Dimensional Gradient Checking 다음은 1차원 선형 모델의 동작이다. 먼저 1차원 선형모델에서 비용함수 J와 그 미분값을 구하기 위한 코드를 구현하고, 경사검사를 사용해 미분 계산이 잘 되었는지 확인해보자 Forward Propagation 순전파에서 비용함수 J를 계산한다.

2023년 7월 24일
·
0개의 댓글
·
post-thumbnail

C2W1A2 Regularization

과적합을 막기 위해 정규화를 해보자 준비 Non-Regularized Model lambd를 nonzero로 설정해서 정규화 모드를 켠다. keep_prob을 1보다 작은 값으로 설정해서 드롭아웃 모드를 켠다. 먼저 모델을 정규화 없이 실행해본 뒤, L2 : "computecostwithregularization()" and "backwardpropagationwithregularization()" Dropout : "forwardpropagationwithdropout()" and "backwardpropagationwithdropout()" 위 두 가지를 구현해보자 정규화 없는 모델을 실행시켜보자 ![](https://velog.

2023년 7월 22일
·
0개의 댓글
·
post-thumbnail

C2W1A1 Initialization

좋은 신경망을 만드려면 초기화를 잘 해야한다. Zero, random, He 초기화를 해보고, 각각 어떤 결과를 내는지 살펴보자 준비 다음은 3층 신경망 모델이다. 초기화 방법을 바꾸기 위해, initialization = "zeros"/"random"/"he" 중 하나를 설정한다. Zero Initialization 매개변수를 모두 0으로 초기화한다. 위 함수의 실행 결과 매개변수 값들은 다음과 같다 아래 코드블럭을 실행해 15000번 반복 훈련시킨다 훈련 결과는 아래와 같다. 반복해도 비용이 전혀 줄어들지 않는다. ![](https://velog.velcdn.com/images/wnwjdqkr/post/c9699751-df04-4eb7-be62

2023년 7월 22일
·
0개의 댓글
·
post-thumbnail

C1W3A1 Planar Data Classification with One Hidden Layer

은닉층이 1개인 신경망을 만들어보자! 준비 a numpy-array (matrix) X that contains your features (x1, x2) a numpy-array (vector) Y that contains your labels (red:0, blue:1). 두 행렬 X, Y를 얻었다. matplotlib를 사용하여 데이터를 시각화하면 위와 같은 이미지로 나타난다. m은 training example의 개수이다. Simple Logistic Regression 본격적으로 신경망을 만들기 전에, 이 문제에 대해 로지스틱 회귀는 어떻게 동작하는지 살펴보자 sklearn의 빌트인함수를 사용하여, 로지스틱 회귀 분류기를 학습시킨다. Accuracy

2023년 7월 13일
·
0개의 댓글
·
post-thumbnail

C1W2A2 Logistic Regression with a Neural Network

로지스틱 회귀를 사용해 고양이 분류기를 만들어보자! 준비 먼저 필요한 패키지들을 임포트해준다. 훈련세트와 테스트세트가 포함된 data.h5가 주어진다. 아래 코드로 데이터를 불러온다. 이미지 데이터셋 x 뒤에 _orig를 붙인 이유는 해당 데이터를 전처리할 것이기 때문이다. (y는 전처리가 필요없다) 아래 코드는 훈련세트에서 해당 인덱스를 가진 이미지와 레이블을 출력해준다. 훈련샘플의 개수, 테스트샘플의 개수, 훈련할 이미지의 가로=세로 길이를 얻는다. 훈련세트와 테스트세트를 reshape한다. 크기가 (numpx, numpx, 3)이던 이미지를 (numpx * numpx * 3, 1)로 납작하게 만든다. 데이터를 "standardize" 이것으로 데이터세트의 전처리를 마쳤다. 이제 본격적으로 모델을 만들어보자. 신경망을 구축하는 단계는 다음과 같다: 모델 구조를 짠다(입력 특성의 개수 등) 모델 parameter를

2023년 7월 13일
·
0개의 댓글
·
post-thumbnail

Understanding Deepfakes with Keras

Understanding Deepfakes with Keras. This is a project-based course which should take approximately 2 hours to finish. Before diving into the project, please take a look at the course objectives and structure: Course Objectives In this course, we are going to focus on two learning objectives: Implement a Deep Convolutional Generative Adversarial Network (DCGAN). Train a DCGAN to synthesize

2023년 6월 24일
·
0개의 댓글
·
post-thumbnail

Google python coursera 1

> ### 1주차 과정 소개 프로그래밍 소개 파이썬 소개 World 시작 모듈 검토 1. 과정 소개 2. 프로그래밍 소개 ![]

2023년 6월 17일
·
0개의 댓글
·