# ics

2개의 포스트
post-thumbnail

Batch Normalization에 대해서 알아보자

Summary 역할 각 레이어의 입력 feature의 분포를 re-centering & re-scaling 장점 → 경험적으로 높은 성능을 낸다고 널리 알려져 있음 & 이유에 대해서는 아직도 연구 진행중 Faster training (learning rate 를 더 높게 설정할 수 있음) Stable training (less vanishing & exploding gradients) Regularization (less overfitting, more generalized) 단점 큰 mini-batch size 필요 → Mini-batch가 전체 dataset과 비슷한 분포를 가져야함. RNN에서 사용 불가능 잘 동작하는 이유 아마도 Internal covariate shift를 제거했기 때문이다. 2018 논문: ICS때문은 아니다! 실험적, 수학적으로 증명

2021년 3월 27일
·
0개의 댓글
·

Cyber Threat Intelligence Tools

A curated list of Awesome Threat Intelligence resources https://github.com/hslatman/awesome-threat-intelligence awesome-industrial-control-system-security https://github.com/hslatman/awesome-industrial-control-system-security

2021년 2월 3일
·
0개의 댓글
·