PCA는 주성분 분석이라고 하며 고차원의 데이터 집합을 낮은 차원의 데이터로 차원축소 하는 방법입니다.데이터의 변수를 줄이는 것은 정확도를 좀 희생하는 것이지만 데이터를 쉽게 시각화 해보고 빠르게 분석할 수 있기 때문에 하는 과정 입니다.PCA의 아이디어는 가능한 많은
(Boolean search : 정보 검색 시 AND, OR, NOT과 같은 연산자를 사용하여 검색하는 방식이다.)단어를 통해 검색할 때 Boolean을 이용해서 검색한다면 해당 문서나 글에 단어가 존재하는지 여부만 알려주고 몇 번 나왔는지 순서는 어떠한지 등 상세한
데이터에서 일반적인 패턴, 분포에서 벗어나 극단적으로 크거나 작은 값을 의미한다.이상치는 데이터를 수집할 때에 실수나 오류로 인한 이상한 값일 수도 있는데, 이러한 이상치는 실제 데이터의 특징을 제대로 반영하지 않을 수 있다. (예: 센서 오류, 측정 장비 결함, 데이
0-1. 시계열 시계열 구성 요소 추세(Trend) 데이터가 장기간 증가하거나 감소하는 영향 계절성(Seasonality) 일정한 주기로 반복되는 주기적인 패턴 e.g. 한 해 동안의 계절적인 변동이나 월간 패
다양한 task를 각기 다른 training 데이터를 이용해 동시에 학습하는 모델다른 task를 하나의 training 데이터 셋을 이용하는 경우는 Multi-label Learning, Multi-output Regression 에 해당한다.다양한 task 동시에 학
회귀분석 R-Squared(결정계수) 회귀모델에서 독립변수(일반적으로: X) 종속변수(y) 얼마나 설명하는지 알려주는 지표 종속변수가 추가 되는 것만으로도 점수가 올라가기 때문에 유의 $R^2 = \frac{SSE}{SST} = 1-\frac{S
Transformer정리중관련논문 - all you need is attention구현코드 - 해당코드는 시계열 데이터(sunspot)을 이용하여 연습하였습니다.Dot-Product(내적)MultiHeadEstimator$y = \\sum\_{i=1}^m \\alpha
상관계수 (R : Correlation Coefficient) → 두 변량 X,Y 사이의 상관관계의 정도를 나타내는 수치, -1,과 1사이의 값을 가지면 절대값이 1에 가까울 수록 두 변량 사이의 상관관계의 정도가 높음 Untitled 상관도 : 두 변량 사이의
Generative Adversarial Network적대적 생성 신경망대충 생성형 AI 를 생각하면 될 것 같다.생성자 (Generator) 와 판별자 (Discriminator) 두가지로 구성되어있다.여기서 적대적 생성 신경망 의 “적대적” 이라는 형용사를 (부사?
Dropout 의 기법에 대해 서술한 논문을 리뷰입니다.출처 : Journal of Machine Learning Research 2014논문드랍아웃은 overfitting 을 해결하기 위한 테크닉 입니다.Noise 가 심한 Train data 의 경우, 즉 Train
LSTM(Long Short-Term Memory)은 RNN(Recurrent Neural Network)의 한 종류로, 시퀀스 데이터를 처리하고 예측하는 데 특화된 딥러닝 모델LSTM은 기본 RNN의 단점인 장기 의존성 문제를 해결하기 위해 고안되었다.기본적으로 LS
DLL - 동적 라이브러리Runtime 중에 활성화LIB - 정적 라이브러리Compile 중에 활성화1) libLink 단계에서 정적으로 라이브러리 파일을 추가일반적으로 실행 파일을 만들 때는 소스 코드를 컴파일하고 만들어진 obj 파일을 링커가 하나로 묶어 exe 파
Reference: DSBA https://www.youtube.com/watch?v=0kgDve_vC1o&t=536s VIT 학습입니다. Inductive Bias training에서 보지 못한 데이터에 대해서도 적절한 귀납적 추론(개별 -> 보편)이 가능하도록
나비 종류 구분 찾는 도중 추천 받아 작성하였으며,비슷한 application 으론 얼굴인식, fine-grained classification, 유사 이미지 검색, 추천시스템 등이 있습니다.loss function 입니다.이미지 인식, 얼굴 인식, 객체 구별하는 작업
이번에는 WASSUP(EstSoft AI 개발자)에 대해 작성해 보려고합니다.한창 AI에 관심을 가지던 중 AI쪽으로 유명한 EstSoft에서 부트캠프를 진행한다고 하여 WASSUP 부트캠프를 참가하게 되었습니다. AI관련 여러 부트캠프와 차이점은 수학적 개념도 함께
ESTsoft에서 진행하는 WASSUP AI모델 개발자 부트캠프 1기생을 뽑고 있다고 하여 신청하고 선발되었습니다.10/10일 오늘부터 진행이 예정 되었었지만, 현재 27일 시작으로 미루어져 아직 기회가 있을 것 같습니다.10/10일 2시부터 WASSUP EST 웨비나
잡 테크 커넥팅 데이즈에서에튜테크 기업의 비전, it/sw산업과 인재 전략, 디지털 헬스케어 글로벌 사례등 다양한 취업관련 컨퍼런스를 진행할 예정입니다.23년 9월 25(월)~26일(화)에 진행되며 코엑스 1층 A홀에서 진행됩니다.해당링크를 들어가시면 사전 예약을 할
CNN논문직접해석한 것이기 때문에 잘못된 해석이 포함되었을 수 있습니다.해당 논문은 2014년 부터 작업이 시작되었으며 인기많은 CNN논문이 되었습니다.모델 크기와 비용에 따른 품질 향상이 있지만 더욱 효율적인 모델을 만들기 위한 방법이 있고,ILSVRC 2012를 밴
한 달전 공부하다 지인의 요청으로 잠시 다른 모델을 제작하느라 늦었습니다.전 논문은 GPT-2를 기반으로 NPL을 학습시킨 것이기 때문에 좀 더 본질 적인 논문을 가져왔으며,NPL보다 전에 학습하던 CNN을 기반으로한 가장 기본적인 논문을 가져와 봤습니다.CNN논문해당