서비스 제품 시스템에 모형을 적용하기 위한 준비 진행• 코드 정리 및 문서 및 테스트 케이스 작성 등훈련된 모형을 Joblib 패키지를 활용하여 저장 후,상용 환경에서 로딩 후 predict() 메서드 기반의 예측 모듈 생성웹서비스에서 버튼을 누르면, pre
• 변수들의 랜덤 조합에 대해 설명력을 측정하기 때문에, Inconsistent한 편이다• Feature간 의존성을 간과하는 경향이 있다즉, 설명변수간 다중공선성이 존재하는 경우, 결과가 왜곡될 수 있다• 음의 영향력(-)을 계산하지 않는 경우도
• 아웃풋은 인간의 의사결정과 유사하게, 원하는대로 도출할 수 있지만 어떻게, 무엇을 근거로 그러한 결과가 나왔는지 알 수 없는 것딥러닝의 학습 목표는 절대적으로 정답 또는 해답을 찾는 것이 아니다• 인풋이 있을 때 '어떻게' 원하는 아웃풋을 도출
• Q-러닝의 주요 문제• 많은 상태와 행동을 가진 대규모 (또는 중간 규모)의 MDP에 적용하기 어렵다는 것• 해결책• 어떤 상태-행동 (𝑠, 𝑎) 쌍의 Q-가치를 근사하는 함수 𝑄• 오랫동안 상태에서 직접
• 메모리가 없는 확률 과정 ( Stochastic Process )• 이 과정은 정해진 개수의 상태를 가지고 있으며, 각 스텝마다 한 상태에서 다른 상태로 랜덤하게 전이• 상태 𝑠에서 상태 𝑠′로 전이하기 위한 확률은 고정되어 있으
PG 알고리즘은 높은 보상을 얻는 방향의 그래디언트를 따르도록 정책 파라미터를 최적화하는 알고리즘으로, 가장 인기 있는 것은 REINFORCE 알고리즘이다
• 소프트웨어 에이전트가 행동을 결정하기 위해 사용하는 알고리즘을 정책(policy)이라 한다• 개념• 에이전트가 보상을 받았을 때 어떤 행동 때문에 보상을 받은 것인지 정확히 알 수 없음• 설명• 각 스텝에서
사전 정보가 전혀 없는, 즉 데이터가 전혀 주어지지 않는 제로베이스 상태에서 학습을 시작해서 스스로 최적의 알고리즘을 찾아내는 학습• 로봇을 걷게 만드는 작업은 강화학습을 이용해서 이루어질 수 있다• 강화학습은 앞서 배운 지도학습, 비지도학습 등의
• 생성자 및 판별자 생성• 생성자오토인코더의 디코더와 비슷• 판별자일반적인 이진 분류기안정적인 DCGAN 구축 가이드라인
은닉층을 여러개 가지는 오토인코더• 층을 더 추가하여 더 복잡한 코딩을 학습할 수 있음• 오토인코더가 강력하게 축소되는 인코딩이 되지않도록 주의해야한다• 인코더가 너무 강력해서 각각의 입력 데이터를 임의의 한 숫자로 매핑
• PCA• 차원 축소 방법 중 하나로, 선형적으로 데이터 차원을 감소시키는 방법• 데이터가 많이 퍼져있는 방향으로 좌표축을 이동하는 방식으로,원본 데이터의 분산을 최대로 보존하는 저차원의 초평면을 찾는 방법이다• 오토인코더의
• 지도(라벨링) 없이도 입력 데이터의 밀집 표현을 학습할 수 있는 신경망• 일반적으로 입력 데이터보다 훨씬 낮은 차원을 가지므로 차원 축소 혹은 시각화에 사용됨• 일부 오토인코더는 훈련 데이터와 매우 비슷한 새로운 데이터를 생성할
• 매슈 피터스, 언어 모델 기반의 임베딩심층 양방향 언어 모델의 내부 상태에서 학습된 문맥이 반영된 단어 임베딩• 제레미 하워드 & 세바스티안 루더, NLP를 위한 비지도학습 사전훈련의 효과를 설명 - 자기지도학습을 사용해 LSTM 언어 모델 훈
고정된 크기 벡터에 정보를 압축하면서 생기는 정보 손실기울기 소실(Vanishing Gradient)의 문제• 이로 인해 문장이 길어지면 번역 품질이 떨어지는 현상 존재• 각 타임 스텝에서 (인코더에 의해 인코딩하여) 적절한 단어에 디코더가 초점을 맞추도록 하
• 영어 문장을 프랑스어로 번역하기: 영어문장을 인코더로 주입하면, 디코더는 프랑스어 번역을 출력한다• 디코더는 이전 스텝에서 출력된 단어를 입력으로 사용한다• 토큰 : 첫 단어 – SOS(start-of-sequence) / 끝 단어 – EOS(
• 문자 단위 RNN• 단어 단위 시퀀스를 다루는 RNN• seq2seqAPI• 어텐션 메커니즘• 트랜스포머• 데이터셋 : IMDb, 영화 50,000건의 리뷰 데이터셋• 영화의 각 리뷰가 부정적인지
• 긴 시퀀스로 RNN을 훈련하려면, 많은 타임 스텝에 걸쳐 실행해야 하므로 펼친 RNN이 매우 깊은 네트워크가 됨1\. 그래디언트 소실/폭주 문제가 있을 수 있음2\. 또한 RNN이 긴 시퀀스를 처리할 때 입력의 첫 부분을 조금씩 잊어버리게 됨•
시계열 데이터 : 모든 데이터가 타임 스텝마다 하나 이상의 값을 가진 시퀀스일 때• 타임 스텝마다 하나의 값(접속 사용자수, 도시의 날짜별 온도)을 가지면 -> 단변량 시계열가장 간단하게 만들 수 있는 RNNRNN은 셀을 여러 층으로 쌓는 것이 일반적 ->
• 시퀀스-투-시퀀스 네트워크• 입력 시퀀스를 받아 출력 시퀀스 생성 ( 주식가격 예측에 유용 )• 시퀀스-투-벡터 네트워크• 입력 시퀀스를 받아 마지막을 제외한 모든 출력을 무시 ( 영화 리뷰 -> 감성 점수