05.15
MLOps 스터디
- BentoML?: 쿠버네티스는 아예 밑바닥부터, BentoML은 패킹해서 보다 손쉽게 쓸 수 있게 만드는 툴
- MLOps engineer: 모델러, 리서쳐가 효율적으로 연구할 수 있는 환경을 제공하는 일
그러기 위해 kubeflow 같은 툴을 잘 다뤄야..
기계학습 스터디
- Conditional independence: condition이라는건 given Y에 대한 얘기? --> P(Y)는 prior기 때문에 이미 알고 있는(or dataset에서 알 수 있는) 정보 아닐까
- Naive classifier: conditional independent를 가정해 고려해야할 case의 수를 줄임
- 잡담
- Mode collapse: GAN에서 generator, discriminator 간 성능차이가 너무 나면 학습이 안 되는 경우가 발생(D가 너무 발달해서 모두 fake로 판단하면 G가 학습을 포기한다든가, G가 너무 발달하면 D를 속이는 방향으로만 특화한다든가)
05.16
알고리즘
- 이분탐색, Binary Search
결과가 Yes/No인 문제로 정의, 보통은 1개의 parameter를 가짐
- 경계를 포함하도록, 즉 Check(lo) != Check(hi)가 되도록 [lo, hi]를 잡음
- lo + 1 < hi인 동안, Check(lo) == mid라면 lo = mid, 아니라면 hi = mid를 반복
- lo + 1 == hi가 되면 탈출, lo, hi는 경계에 위치
- lower_bound, upper_bound
lower_bound(v,n)
: v에서 값인 n인 인덱스 중 가장 작은 값을 return
upper_bound(v,N)
: v에서 값이 N보다 큰 인덱스 중 가장 작은 값(== N보다 큰 인덱스 중 가장 큰 값+1)을 return
upper_bound(v,n) - lower_bound(v,n)
: v에서 값이 n인 원소의 개수
upper_bound(v,r) - lower_bound(v,l)
: [l,r] 범위의 수의 개수
v = [1,2,3,3,3,4,5,5,6,7,7,7]
lower_bound(v,3)
upper_bound(v,5)
upper_bound(v,3) - lower_bound(v,3)
upper_bound(v,6) - lower_bound(v,4)