현재 2월부터 17기 연수생으로 선발되어 인공지능, 빅데이터 교육을 수료중이다작년 말에 이전 기수 선배님(?)의 벨로그를 통해 이 프로그램을 알게 되었다비밀유지 서약서 때문에 자세한 내용은 외부 유출 금지다그래서 내가 공부하면서 얻어낸 산출물 정도만 복습할 겸 정리해보
하드디스크의 입출력이 너무 많아져서 잦은 페이지 부재로 작업이 멈춘 것 같은 상태degree of multiprogrammingstatic : equal, proportionaldynamic : working set model, page fault frequency정적
요구 페이징 프로세스가 필요로 하는 데이터를 언제 메모리로 가져올지 결정하는 것은 가져오기 정책이다 가져오기 정책은 프로세스가 요청할 때 메모리로 가져오는 방법이 일반적이며 이를 요구 페이징이라고 한다 요구 페이징의 개요 메모리를 절약 및 효율적으로 관리하고 응답 속
물리 메모리의 크기와 프로세스가 올라갈 메모리 위치를 신경 쓰지 않고 프로그래밍하도록 지원가상 메모리는 물리 메모리의 크기와 상관없이 프로세스에 커다란 메모리 공간을 제공하는 기술프로세스는 운영체제가 어디에 있는지 물리 메모리의 크기가 어느 정도인지 신경 쓰지 않고 메
주식, 언어와 같은 Sequential data와 이를 이용한 Sequential model의 정의와 종류에 대해 배웁니다.그 후 딥러닝에서 sequential data를 다루는 Recurrent Neural Networks 에 대한 정의와 종류에 대해 배웁니다.LST
CNN(Convolutional Neural Network)에서 가장 중요한 연산은 Convolution 입니다.CNN에 대한 공부를 하기 전에 Convolution의 정의, convolution 연산 방법과 기능에 대해 배웁니다. 그리고 Convolution, 입력을
최적화와 관련된 주요한 용어와 다양한 Gradient Descent 기법들을 배웁니다.주요한 용어: Generalization,Overfitting, Cross-validation 등 다양한 용어가 있습니다. 각 용어들의 의미에 대해 배웁니다.다양한 Gradient D
이번 강의는 이론, 실습, 과제로 구성됩니다.이번 강의에선 신경망(Neural Networks)의 정의, Deep Neural Networks에 대해 배웁니다.신경망(Neural Networks)간단한 Linear neural networks 를 예시로 Data, Mo
시퀀스 데이터의 개념과 특징, 그리고 이를 처리하기 위한 RNN을 소개합니다.RNN에서의 역전파방법인 BPTT와 기울기 소실문제에 대해 설명합니다.시퀀스 데이터만이 가지는 특징과 종류, 다루는 방법, 그리고 이를 위한 RNN(Recurrent Neural Network
Convolution 연산과 다양한 차원에서의 연산방법을 소개합니다.Convolution 연산의 역전파에 대해 설명합니다.Convolution 연산은 오늘날 굉장히 많은 모델에서 이미지나 영상을 처리하기 위해 사용됩니다. 지금까지 배웠던 fully connected l
조건부확률에서 이어지는 개념인 베이즈 정리와 인과관계 추론에 대해 설명합니다.베이즈 정리는 데이터가 새로 추가되었을 때 정보를 업데이트하는 방식에 대한 기반이 되므로 오늘날 머신러닝에 사용되는 예측모형의 방법론으로 굉장히 많이 사용되는 개념입니다. 이 때 나오는 사전확
지난 시간까지 데이터를 선형 모델로 해석하는 방법을 배웠으니 이제는 비선형 모델인 neural network에 대해 배워보자이 때 데이터가 바뀌면 결과값도 바뀌게 된다출력 벡터의 차원은 d -> p로 변한다d개의 변수로 p개의 선형 모델을 만들어서 p개의 잠재변수를 설
변수의 움직임에 따른 함수값의 변화를 측정하기 위한 도구로 최적화에서 제일 많이 사용하는 기법함수 f의 주어진 점 (x, f(x))에서의 접선의 기울기를 구한다접선의 기울기를 알면 어느 방향으로 점을 움직여야 함수값이 증가/감소하는지 알 수 있다미분값을 더하는 경우함수
np.linalg.pinv 를 이용하면 연립방정식의 해를 구할 수 있다aij) 와 (bi) 들이 주어진 상황에서 방정식을 만족하는 (xj) 를 구하는 상황Ax = b로 표현 가능n ≤ m 이면 무어-펜로즈 역행렬을 이용하면 해를 하나 구할 수 있다np.linalg.pi
행렬은 벡터를 원소로 가지는 2차원 배열행렬은 행(row)과 열(column)이라는 인덱스(index)를 가짐행렬의 특정 행(열)을 고정하면 행(열)벡터라 부름행렬끼리 같은 모양을 가지면 덧셈, 뺄셈을 계산 가능행렬 곱셈(matrix multiplication)은 i
벡터는 숫자를 원소로 가지는 리스트(list) 또는 배열(array)벡터는 공간에서 한 점벡터는 원점으로부터 상대적 위치벡터에 숫자를 곱해주면 길이만 변합니다두 벡터의 덧셈은 다른 벡터로부터 상대적 위치이동을 표현합니다벡터의 노름(norm)은 원점에서부터의 거리L1-노
프로그램을 모듈화 시키면 다른 프로그램이 사용하기 쉬움예) 카카오톡 게임을 위한 카카오톡 접속 모듈Built-in Module인 Random을 사용난수를 쉽게 생성할 수 있음모듈을 모아놓은 단위, 하나의 프로그램문자처리,웹,수학 등 다양한 모듈이 제공됨별다른 조치없이
객체 : 실생활에서 일종의 물건 attribute 속성과 action 행동을 가짐OOP는 이러한 객체 개념을 프로그램을 표현attribute은 variable 변수action은 method 함수로 표현설계도에 해당하는 class와 실제 구현체인 instance로 나눔s
Historical Review 2012 AlexNet 2013 DQN 2014 Encoder/Decoder, Adam 2015 GAN, ResNet 2016 2017 Transformer 2018 Bert 2019 Big Launguage Models (GPT-X)