# AIB

AIB18_Section7_PJT
T사는 인터넷을 통해 영화 미디어 콘텐츠를 제공하는 서비스를 운영 중입니다. 시장 경쟁력을 높이고 고객 이탈을 최소화하기 위해 다양한 액션 플랜을 고려 중입니다. 이 중에서도, 영화 추천 서비스의 품질을 향상시키는 것이 중요한 과제로 여겨지고 있습니다Movielen

AIB18_Section4_PJT
네이버 오픈 API를 통해 쇼핑 정보를 수집 후 사용자에 맞는 추천 시스템 개발 오픈 API를 통해 네이버 패션의류 쇼핑 정보를 수집한 다음 PostgreSQL을 이용하여 RDBMS을 구축한 DB에 데이터를 저장한다. 저장된 데이터는 Google Looker stud

AIB18_Section3_PJT
AIB18Section3PJT 프로젝트 기간 : 2023.05.10 ~ 2023.05.16 프로젝트 도구 : Selenium, Google Colab 사용언어 : Python 프로젝트명 : 네이버 쇼핑 리뷰를 이용한 소비자 감정 분석 예측 프로젝트 배경 대기질이

AIB18_Section2_PJT
AIB18Section2PJT 프로젝트 기간 : 2023.04.07 ~ 2023.04.13 프로젝트 도구 : OpenAPI, Google Colab 사용언어 : Python 프로젝트명 : 네이버 오픈 API를 이용한 상품 판매전략 프로젝트 배경 우리는 의류 판매를

AIB18_Section1_PJT
게임 회사의 데이터 팀에 합류했습니다.'다음 분기에 어떤 게임을 설계해야 할까'라는 고민을 해결하기 위해, 기존의 데이터에 기반하여 인사이트를 얻고, 의사결정을 하고자 하는 것이 목표입니다.지역은 어떻게 구분할지 판단지역별로 선호하는 게임의 장르를 파악트렌드는 어떤 것
AIB18_Section6_PJT
항공권, 숙박비, 관광지 비용 등 따로 흩어져 있는 데이터 정보를 검색하기 어려워하는 사람들을 위해 최대한 간편하게 검색할 수 있는 서비스를 제작사용자들이 여행하고자 하는 목적지에 대한 항공권, 숙박비용 정보를 최대한 간단한 작업으로 대략적인 정보를 제공해주는게 목적8
[AIB 18기] Section 3 - Sprint 3 - Note4 - GAN(Generative Adversarial Networks)
2016년 Ian Goodfellow에 의해 개발된 GAN(Generative Adversarial Networks, 생성적 적대 신경망)은 실제와 유사한 데이터를 만들어내는 생성모델입니다.어떻게 실제와 유사한 데이터를 생성하는 모델이 만들어 질 수 있을까요?GAN을
[AIB 18기] Section 3 - Sprint 3 - Note3 - AutoEncoder
AutoEncoder(오토인코더)는 입력 데이터를 저차원의 벡터로 압축한 뒤 원래 크기의 데이터로 복원하는 신경망입니다.아래는 기본적인 AutoEncoder의 구조를 나타낸 이미지입니다.AutoEncoder의 기본적인 구조는 위 그림처럼 모래시계(?) 형태를 띠고 있습
[AIB 18기] Section 3 - Sprint 3 - Note2 - Beyond Classification
분할(Segmentation)은 아래 이미지와 같이 하나의 이미지에서 같은 의미를 가지고 있는 부분을 구분해내는 Task입니다.Segmentation 은 의료 이미지, 자율주행, 위성 및 항공 사진 등의 분야에서 많이 사용되고 있는데요.모델이 출력하는 결과 이미지를 보
[AIB 18기] Section 3 - Sprint 3 - Note1 - 합성곱 신경망(Convolutional Neural Network)과 전이 학습(Transfer Learning)
1. CNN(Convolutional Neural Network, 합성곱 신경망)과 CNN의 구조 특징이 추출되는 부분인 합성곱 층(Convolution Layer)와 풀링 층(Pooling Layer) 1). 합성곱 합성곱 층에서는 합성곱 필터가 슬라이딩하며 이
[AIB 18기] Section 3 - Sprint 2 - Note 4 - Transformer
RNN 기반 모델이 가진 구조적 단점은 단어가 순차적으로 들어온다는 점입니다.그렇기 때문에 처리해야 하는 시퀀스가 길수록 연산 시간이 길어지는데요.트랜스포머는 이런 문제를 해결하기 위해 등장한 모델입니다.모든 토큰을 동시에 입력받아 병렬 처리하기 때문에 GPU 연산에
[AIB 18기] Section 3 - Sprint 2 - Note 3 - 언어 모델과 RNN(Recurrent Neural Network, 순환 신경망)
각 단어의 확률을 계산하는 모델전체 말뭉치 중에서 시작하는 단어의 횟수 토대로 확률을 구합니다. 다음에 어떤 문장이 왔는지도 계산하여(조건부) 확률을 구한 뒤 서로 곱하면 문장이 등장할 확률을 구할 수 있습니다.말뭉치에 없는 단어가 있다면 예측이 불가능하다는 한계점이

[AIB 18기] Section 3 - Sprint 2 - Note 2 - 분산 표현(Distributed Representation)
비슷한 위치에 등장하는 단어들은 비슷한 의미를 가진다 라는 분포가설을 토대로 단어 자체를 벡터화 하여 분석하는 Word2Vec 방법이 있습니다.Word2Vec은 단어를 고정 크기의 벡터로 나타내는 기법으로, 분산 표현(distributed representation)의
[AIB 18기] Section 3 - Sprint 2 - Note 1 - 자연어처리(NLP, Natural Language Processing)
자연어처리자연어처리를 통해 어떤 일을 할 수 있는지 알 수 있습니다.전처리(Preprocessing)토큰화(Tokenization)에 대해 설명할 수 있으며 SpaCy 라이브러리를 활용하여 토큰화를 진행할 수 있습니다.불용어(Stop words)를 제거하는 이유를 설명
[AIB 18기] Section 3 - Sprint 1 -Review
(Review) 아래 키워드에 대해 한 줄로 설명해봅시다.퍼셉트론(Perceptron)다층 퍼셉트론 신경망(Multi-Layer Perceptron, MLP)입력층, 은닉층, 출력층신경망 학습순전파-손실 계산-역전파 과정경사 하강법(Gradient Descent)옵티마
[AIB 18기] Section 3 - Sprint 1 - Note 3 - 더 나은 신경망 학습을 위한 방법들 - 학습률(Learning rate), 가중치 초기화(Weight Initialization) & Regularization
개요 기본적인 신경망 구축을 지난번에 진행했다면, 신경망 학습이 더 잘되도록 하는 방법도 생각해야 한다. 더 좋은 결과를 위해 2가지 방법에 대해 알아볼 것이다. 학습률(Learning rate) 가중치 초기화 개념 1. 학습률 감소 / 계획법(Learning

[AIB 18기] Section 3 - Sprint 1 - Note 2 - Training Neural Network
순전파 - > 손실 함수 -> 역전파(경사하강법으로 검증)UP & Down 게임1\. 맞추는 사람은 조건에 맞는 숫자를 1개 예측(순전파)2\. 출제자는 정답 숫자를 예측한 숫자보다 크면 Up, 작으면 Down(손실함수)3\. 알려준 정보를 바탕으로 조건에 맞는 새로운

[AIB 18기] Section 3 - Sprint 1 - Note 1 - Artificial Neural Network
신경망을 이루는 가장 기본단위다수의 신호를 입력으로 받아 하나의 신호를 출력가중치-편향 연산 -> 활성화 함수임계점 기준 0 아니면 1 출력0 아니면 1이기 때문에 학습률이 떨어짐계단 함수의 단점을 보완모든 지점에서 미분 가능시그모이드 함수를 중복사용 시 기울기 소실

[AIB 18기] Section 2 - Project (Tree-base Modeling Complete)
Tree-Base > #### 라이브러리 설치 원핫인코딩을 위해 category_encoders 라이브러리를 설치해줍니다. !pip install category_encoders !pip install pandas-profiling==3.1.0 >#### 해당 라이