# one week one project
SelfStudyMonitor 2주차 기획
셀프 모니터링 프로젝트 2주차 기획 > Eye Landmark에 초점을 맞추기 1주차 피드백 노트북 웹캠 데이터셋 (상반신 사진 + 마스크를 쓴 얼굴)을 효과적으로 모니터링을 할 수 있을까? 현재 획득 가능한 데이터셋인 눈(Eye)에 집중하기 2주차 목표 > SelfStudyMonitor 프로젝트 완료 개인 프로젝트는 짧고 밀도높게 진행해야 한다. 퀄리티(or 모델 성능)이 낮더라도, 목표로 한 최소한의 기능을 구현한 프로토타입을 만들자. output이 존재해야 평가하고 피드백을 줄 수 있다. 구현 계획 1. 데이터 실시간 저장 저장 방식 How batch? 일정 시간단위로 중간저장? 무엇을 What Eye Landmark(좌표) / Blink 왜 Why 모니터링 지표(단위 시간당 평균 blink →표현 방식: 숫자 / 그래프) 2. 분류 모델
[3일차] 셀프 모니터링 프로젝트 by DL
구현 PyTorch로 간단한 Classifier 제작 Dense layer 로 프로토타입 제작 데이터 셋을 라벨당 10,000 장 수집하고, 기존의 2가지 라벨 (study / stop)에 1가지 라벨(Talk)을 추가해서 학습 CE Loss 사용 문제점 > 분류기의 성능이 좋지 않음 분류기의 Input : mediapipe의 약 2000개의 feature(좌표)들 Sol A : 꼭 필요한 좌표들을 선정하여 데이터 스케일 조절 (얼굴 윤곽선 등) Sol B : Conv1D, LSTM, ConvLSTM1D 등 다양한 layer 사용 Sol C : 학습을 충분히 시키기 (시간, epoch 늘리기) 프로젝트 기획 방향 변경 > 상반신 사진 + 마스크를 쓴 얼굴 -> 효과적으로 모니터링을 할 수 있을까? 성능이 안나오는 이유는 기획 단계에서 실패한 것일 수 있겠다.... 변경 기준 실현 가능할 것 *1주일 1
[1일차]학습 셀프 모니터링 프로젝트 by cpu
SelfStudyMonitor 1주일 1프로젝트의 첫번째 프로젝트 > 학습 셀프 모니터링 모델 개발 결과물 1일차 결과물 github link 최종 기능 웹캠으로 실시간 분류 및 모니터링 지표 제공 시간 (지속 시간, 기간) 횟수 > label : [자리비움 / 학습중] , [집중 / 평소 / 딴짓] 구현 google의 pretrained model, mediapipe의 Holistic 사용 Study/ Stop class 분류 데이터셋은 직접 제작 sklearn 기반 (standization, randomforest) 문제점 > sklearn -> cpu 기반 : 학습 오래걸림 오늘 시도한 방법 : 라벨 당 1000장의