profile
항상 긍정적인 마음으로 배움을 갈망하며, 운동과 음악을 사랑하는 개발자
post-thumbnail

SW마에스트로 12기 서류, 코딩테스트와 면접 팁 그리고 활동 후기

과학기술정보통신부 및 정보통신기획평가원에서 SW마에스트로 13기를 모집한다고 합니다. 여러분들에게 본 프로그램을 추천하고, 제가 연수생으로 활동한 내용을 공유하기 위해 조금 늦었지만 12기를 합격하게 된 얘기와, 활동 후기를 작성하려 합니다.SW마에스트로 과정은 창의

2022년 2월 6일
·
0개의 댓글
·
post-thumbnail

드디어 2주차도 끝 (Naver Boostcamp AI Tech 2주차 5일)

운동하기책읽기알고리즘 문제 풀기PyTorch 심화과제영어공부Multi-GPU 환경에서 학습이 어떻게 이루어지는지 등에 대해서 배웠으며, Ray Tune 가지고 실습해보는 내용도 있었다.아직은 너무 막막하다. 새로운 지식들이 끝없이 밀려들어오고, 공부해야할 것들은 산더미

2022년 1월 28일
·
0개의 댓글
·
post-thumbnail

PyTorch와 친해지기 (Naver Boostcamp AI Tech 2주차 4일)

운동하기책읽기PyTorch 챕터2 과제 마무리하기PyTorch 남은 강의 및 퀴즈 마무리하기영어공부운동하기책읽기영어공부PyTorch 심화과제오늘은 Dataset과 DataLoader에 남은 부분에 대해 공부를 했다. 또한 TensorBoard 및 Weights & Bi

2022년 1월 27일
·
0개의 댓글
·
post-thumbnail

PyTorch와 친해지기 (Naver Boostcamp AI Tech 2주차 3일)

운동하기책읽기영어공부PyTorch 챕터2 과제 마무리하기PyTorch 남은 강의 및 퀴즈 마무리하기운동하기책읽기영어공부PyTorch 남은 강의 및 퀴즈 마무리하기오늘은 Dataset과 DataLoader에 대해 강의를 수강했으며, 관련 과제를 진행하였다.집중만이 살 길

2022년 1월 26일
·
0개의 댓글
·
post-thumbnail

PyTorch와 친해지기 (Naver Boostcamp AI Tech 2주차 2일)

운동하기책읽기영어공부PyTorch 챕터 2까지 완료하기부족한 부분 정리운동하기책읽기영어공부PyTorch 챕터2 과제 마무리하기PyTorch 남은 강의 및 퀴즈 마무리하기오늘은 PyTorch에 대한 내용을 공부했다. Custom Model 개발부터 Dataset 등등 전

2022년 1월 25일
·
0개의 댓글
·
post-thumbnail

PyTorch와 친해지기 (Naver Boostcamp AI Tech 2주차 1일)

운동하기영어공부PyTorch 공부운동하기책읽기영어공부PyTorch 챕터 2까지 완료하기부족한 부분 정리저번 주보다는 확실히 들어야할 강의의 수와 시간이 줄었다. 하지만 방심은 금물, 쏟아지는 과제와의 싸움. 결국 들여야하는 절대적인 시간은.. 변함이 없는듯 하다.지난주

2022년 1월 24일
·
0개의 댓글
·
post-thumbnail

벌써 한 주가 지나갔다니 (Naver Boostcamp AI Tech 5일차)

심화과제 완료선형대수 & 확률론 & 통계론 공부AI Math 관련 글 정리선형대수 & 확률론 & 통계론 공부AI Math 관련 글 정리부족한 부분 정리정말 정신없이 한 주가 지나갔다. 생각한 것보다 더 바빴고, 신경써야 할 부분들이 참 많았다. 사람은 적응의 동물이라더

2022년 1월 21일
·
0개의 댓글
·

수학수학수학 (Naver Boostcamp AI Tech 4일차)

운동하기AI Math 마무리심화과제 완료영어공부AI Math 관련 글 정리심화과제 완료선형대수 & 확률론 & 통계론 공부AI Math 관련 글 정리많이 부족함을 느낀다. 나태함을 느낀다. 이러면 안되겠다. 수식도 하나하나 증명하면서 더 파고들면서 공부해야겠다. 역시나

2022년 1월 20일
·
0개의 댓글
·

쏟아지는 공부량 (Naver Boostcamp AI Tech 3일차)

운동하기개발관련 책 읽기AI Math 전부 수강하기 (강의별로 전부 다 정리할 것) (약간..남았다..)AI Math 관련 퀴즈 제출 (약간..남았다..)심화과제 맛보기영어공부 이제 제대로 등록해야지.운동하기AI Math 마무리심화과제 완료영어공부AI Math 관련 글

2022년 1월 19일
·
0개의 댓글
·
post-thumbnail

네이버 부스트캠프 AI Tech 본격적인 시작 (Naver Boostcamp AI Tech 2일차)

기본과제 제출하기Python, numpy, Pandas 정리하기AI Math 수강하기영어공부 준비운동하기개발관련 책 읽기AI Math 전부 수강하기 (강의별로 전부 다 정리할 것)AI Math 관련 퀴즈 제출심화과제 맛보기영어공부오늘은 계획한 시간에 맞춰서 일어났고,

2022년 1월 18일
·
0개의 댓글
·
post-thumbnail

Python 데이터 분석 및 인공지능 학습에 필수적인 라이브러리 Numpy

파이썬으로 진행되는 모든 데이터 분석 및 인공지능 학습에 있어서 필수적으로 이해해야하는 도구Numerical Python의 약자로, 과학계산에서 많이 사용하는 선형대수의 계산식을 파이썬으로 구현할 수 있도록 도와주는 라이브러리이다.행렬과 벡터와 같은 Array 연산에

2022년 1월 18일
·
0개의 댓글
·
post-thumbnail

네이버 부스트캠프 AI Tech를 시작하며 (Naver Boostcamp AI Tech 1일차)

1월 17일부터 6월 15일까지, 약 5개월동안 진행되는 긴 경주가 시작됐다. 어렸을 때부터 오디션프로그램 본선에 진출한 참가자들을 보면서 '나에게도 저런 기회가 주어진다면 죽을힘을 다해서 더 나은 결과를 쟁취해야지'라고 다짐을 해왔다. 이번 네이버 부스트캠프 AI T

2022년 1월 17일
·
0개의 댓글
·
post-thumbnail

앤드류 응(Andrew Ng) 교수님의 머신러닝 강좌 (3주차 Solving the Problem of Overfitting)

The Problem of Overfitting underfit(High bias) vs just right vs overfit(High Variance) Addressing overfitting Reduce number of features Regularizatio

2021년 12월 16일
·
0개의 댓글
·
post-thumbnail

앤드류 응(Andrew Ng) 교수님의 머신러닝 강좌 (3주차 Logistic Regression Model)

linear regression에서 사용했던 cost function을 사용하게 된다면 "non-convex"의 모양을 가지게 되며, 최적의 해를 찾는데 어려움을 가질 것이다.따라서 logistic regression의 경우 새로운 Cost Function을 정의할 필

2021년 12월 14일
·
0개의 댓글
·
post-thumbnail

앤드류 응(Andrew Ng) 교수님의 머신러닝 강좌 (3주차 Classification and Representation)

Classification 분류 -> 스팸, 도용된 신용카드, 종양(양성 음성) 이러한 분류문제를 해결하기 위해 linear regression을 통해 생각해볼 수 있다. 얼핏 잘 맞는것 같지만 끝에 데이터가 추가되고 나면 ![](https://images.velo

2021년 12월 14일
·
0개의 댓글
·
post-thumbnail

앤드류 응(Andrew Ng) 교수님의 머신러닝 강좌 (2주차 Computing Parameters Analytically)

학습을 하지 않고 최적값을 한번에 찾는 방법을 말한다.즉, 위와 같은 식을 이용해서 바로 $$\\theta$$를 찾게 된다.그렇다면 Normal Equation을 이용해서 바로 찾으면 되지, 왜 굳이 Gradient Descent를 이용해서 하는가?이를 이해하기 위해서

2021년 12월 11일
·
0개의 댓글
·
post-thumbnail

앤드류 응(Andrew Ng) 교수님의 머신러닝 강좌 (2주차 Multivariate Linear Regression)

예전에는 feature를 하나만 사용해서 hypothesis 함수를 만들었는데, 과연 이게 많을때는 어떻게 해야할까?이제는 n개의 feature이 있다고 가정하자.간단하게 행렬의 식으로 표현할 수 있다.그렇다면 Multiple Variables에서 Gradient De

2021년 12월 11일
·
0개의 댓글
·
post-thumbnail

앤드류 응(Andrew Ng) 교수님의 머신러닝 강좌 (1주차 Parameter Learning)

Gradient Descent는 Cost Function의 최솟값을 구하는 알고리즘이다. Linear Regression 말고도 모든 곳에서 실제로 사용되고 있다. 여기서 α는 learning rate를 의미하며, 0과 1 사이의 값을 가진다.https://d

2021년 11월 14일
·
0개의 댓글
·
post-thumbnail

앤드류 응(Andrew Ng) 교수님의 머신러닝 강좌 (1주차 Model and Cost Function)

https://d3c33hcgiwev3.cloudfront.net/imageAssetProxy.v1/H6qTdZmYEeaagxL7xdFKxA_2f0f671110e8f7446bb2b5b2f75a8874_Screenshot-2016-10-23-20.14.58.pn

2021년 11월 13일
·
0개의 댓글
·