DLmath

1.Backpropagation, 벡터로 미분하기

post-thumbnail

2.Backpropagation 유도 - 함께 편미분하기

post-thumbnail

3.[Transformer]-1 Positional Encoding은 왜 그렇게 생겼을까? 이유

post-thumbnail

4.Batch Normalization - backpropagation 유도하기

post-thumbnail

5.[Transformer]-2 Self Attention 어떻게 계산할까? 차원은?

post-thumbnail