과학기술정보통신부 및 정보통신기획평가원에서 SW마에스트로 13기를 모집한다고 합니다. 여러분들에게 본 프로그램을 추천하고, 제가 연수생으로 활동한 내용을 공유하기 위해 조금 늦었지만 12기를 합격하게 된 얘기와, 활동 후기를 작성하려 합니다.SW마에스트로 과정은 창의
운동하기책읽기알고리즘 문제 풀기PyTorch 심화과제영어공부Multi-GPU 환경에서 학습이 어떻게 이루어지는지 등에 대해서 배웠으며, Ray Tune 가지고 실습해보는 내용도 있었다.아직은 너무 막막하다. 새로운 지식들이 끝없이 밀려들어오고, 공부해야할 것들은 산더미
운동하기책읽기PyTorch 챕터2 과제 마무리하기PyTorch 남은 강의 및 퀴즈 마무리하기영어공부운동하기책읽기영어공부PyTorch 심화과제오늘은 Dataset과 DataLoader에 남은 부분에 대해 공부를 했다. 또한 TensorBoard 및 Weights & Bi
운동하기책읽기영어공부PyTorch 챕터2 과제 마무리하기PyTorch 남은 강의 및 퀴즈 마무리하기운동하기책읽기영어공부PyTorch 남은 강의 및 퀴즈 마무리하기오늘은 Dataset과 DataLoader에 대해 강의를 수강했으며, 관련 과제를 진행하였다.집중만이 살 길
운동하기책읽기영어공부PyTorch 챕터 2까지 완료하기부족한 부분 정리운동하기책읽기영어공부PyTorch 챕터2 과제 마무리하기PyTorch 남은 강의 및 퀴즈 마무리하기오늘은 PyTorch에 대한 내용을 공부했다. Custom Model 개발부터 Dataset 등등 전
운동하기영어공부PyTorch 공부운동하기책읽기영어공부PyTorch 챕터 2까지 완료하기부족한 부분 정리저번 주보다는 확실히 들어야할 강의의 수와 시간이 줄었다. 하지만 방심은 금물, 쏟아지는 과제와의 싸움. 결국 들여야하는 절대적인 시간은.. 변함이 없는듯 하다.지난주
심화과제 완료선형대수 & 확률론 & 통계론 공부AI Math 관련 글 정리선형대수 & 확률론 & 통계론 공부AI Math 관련 글 정리부족한 부분 정리정말 정신없이 한 주가 지나갔다. 생각한 것보다 더 바빴고, 신경써야 할 부분들이 참 많았다. 사람은 적응의 동물이라더
운동하기AI Math 마무리심화과제 완료영어공부AI Math 관련 글 정리심화과제 완료선형대수 & 확률론 & 통계론 공부AI Math 관련 글 정리많이 부족함을 느낀다. 나태함을 느낀다. 이러면 안되겠다. 수식도 하나하나 증명하면서 더 파고들면서 공부해야겠다. 역시나
운동하기개발관련 책 읽기AI Math 전부 수강하기 (강의별로 전부 다 정리할 것) (약간..남았다..)AI Math 관련 퀴즈 제출 (약간..남았다..)심화과제 맛보기영어공부 이제 제대로 등록해야지.운동하기AI Math 마무리심화과제 완료영어공부AI Math 관련 글
기본과제 제출하기Python, numpy, Pandas 정리하기AI Math 수강하기영어공부 준비운동하기개발관련 책 읽기AI Math 전부 수강하기 (강의별로 전부 다 정리할 것)AI Math 관련 퀴즈 제출심화과제 맛보기영어공부오늘은 계획한 시간에 맞춰서 일어났고,
파이썬으로 진행되는 모든 데이터 분석 및 인공지능 학습에 있어서 필수적으로 이해해야하는 도구Numerical Python의 약자로, 과학계산에서 많이 사용하는 선형대수의 계산식을 파이썬으로 구현할 수 있도록 도와주는 라이브러리이다.행렬과 벡터와 같은 Array 연산에
1월 17일부터 6월 15일까지, 약 5개월동안 진행되는 긴 경주가 시작됐다. 어렸을 때부터 오디션프로그램 본선에 진출한 참가자들을 보면서 '나에게도 저런 기회가 주어진다면 죽을힘을 다해서 더 나은 결과를 쟁취해야지'라고 다짐을 해왔다. 이번 네이버 부스트캠프 AI T
The Problem of Overfitting underfit(High bias) vs just right vs overfit(High Variance) Addressing overfitting Reduce number of features Regularizatio
linear regression에서 사용했던 cost function을 사용하게 된다면 "non-convex"의 모양을 가지게 되며, 최적의 해를 찾는데 어려움을 가질 것이다.따라서 logistic regression의 경우 새로운 Cost Function을 정의할 필
Classification 분류 -> 스팸, 도용된 신용카드, 종양(양성 음성) 이러한 분류문제를 해결하기 위해 linear regression을 통해 생각해볼 수 있다. 얼핏 잘 맞는것 같지만 끝에 데이터가 추가되고 나면 ![](https://images.velo
학습을 하지 않고 최적값을 한번에 찾는 방법을 말한다.즉, 위와 같은 식을 이용해서 바로 $$\\theta$$를 찾게 된다.그렇다면 Normal Equation을 이용해서 바로 찾으면 되지, 왜 굳이 Gradient Descent를 이용해서 하는가?이를 이해하기 위해서
예전에는 feature를 하나만 사용해서 hypothesis 함수를 만들었는데, 과연 이게 많을때는 어떻게 해야할까?이제는 n개의 feature이 있다고 가정하자.간단하게 행렬의 식으로 표현할 수 있다.그렇다면 Multiple Variables에서 Gradient De
Gradient Descent는 Cost Function의 최솟값을 구하는 알고리즘이다. Linear Regression 말고도 모든 곳에서 실제로 사용되고 있다. 여기서 α는 learning rate를 의미하며, 0과 1 사이의 값을 가진다.https://d
https://d3c33hcgiwev3.cloudfront.net/imageAssetProxy.v1/H6qTdZmYEeaagxL7xdFKxA_2f0f671110e8f7446bb2b5b2f75a8874_Screenshot-2016-10-23-20.14.58.pn