Markov process / Markov chain
Markov process / Markov chain (마코브 체인)
- 마코브 특성(Markov property)을 지니는 이산시간(discrete time) 확률과정(stochastic process)
- 확률 과정 : 시간에 따라 어떤 사건이 발생할 확률이 변화하는 과정
- 이산 시간 : 시간이 연속적으로 변하지 않고 이산적으로 변함을 의미
- 마코브 특성 : 과거 상태들과 현재 상태가 주어졌을 때, 미래 상태는 과거 상태와는 독립적으로 현재 상태에 의해서만 결정된다는 것
- 과거와 현재 상태 모두를 고려했을 때 미래 상태가 나타날 확률과 현재 상태만을 고려했을 때 미래 상태가 발생할 확률이 동일하다는 것
- 이처럼 과거 상태를 기억하지 않기 때문에 메모리리스 프로세스로 불림