초록 한모금
모델기반의 AI시스템의 결정들을 설명하기위해 반사실적 연구를 진행하려고 한다. 우리가 생각하는 반사실적 접근은 시스템의 의사결정에 영향을 주는 입력값과 (입력값에 따라 의사결정이 달라진다) 그렇지 않은 경우(입력값을 바꾸어도 의사결정에 변함이 없다) 에 대한 설명을 정의한다. 우리는 1)어떻게 이 프레임워크가 임의의 데이터 유형과 여러 예측모델을 가진 기능을 통합할 수 있는 일반적인 데이터 기반 AI시스템에서 설명을 제공하는지 증명하려고 한다, 2) 문맥기반으로 가장 실용적인 설명을 찾기 위해 휴리스틱 절차를 제안한다. 그리고 그들의 중요도에 따라 feature의 경중에 기반하여 모델 예측을 설명하는 방법(SHAP), 지엽적인 해석가능한 모델- 설명과(LIME)함께 반사실적 연구를 조명하려고 하고, 중요도 가중치설명이 시스템의 결정과 동일선상에 있어야 하는지에 대해 왜 우리가 조심스럽게 고려해야하는지 두개의 근본적인 이유를 제공한다. 특히 우리는 (i) 모델 예측에 있어 가중치가 큰 feature 일련의 결정에 영향을 주지 않을 수도 있고, (ii) 중요도 가중치가 어떻게 변수가 결정에 영향을 주는지 혹은 영향 여부를 설명하기에 부족하다는것을 보여준다. 우리는 반사실적 접근법을 SHAP과 비교하여 반사실적 설명이 중요성 가중치보다 데이터 중심 결정을 더 잘 설명하는 조건을 설명하는 몇 가지 간결한 사례와 세 가지 세부 사례 연구로 이를 입증한다.
너무 어렵다ㅜ