# LIME

Part of XAI(1)
이 글의 References XAI관련 Velog는 XAI를 공부하기 위해서 위의 책을 참고하고자 했는데, 너무 제한적인 설명때문에 구글링을 찾아봤고 일부는 직접 논문을 읽었다. 시작하겠다. Introduction XAI는 Explanable AI로써 우리는 딥러닝
[XAI 논문] “Why Should I Trust You?” Explaining the Predictions of Any Classifier (LIME)
컨셉 모든 AI 모델에 적용이 가능한 설명 기술로 LIME을 제안한다. 모델의 예측과 예측에 대한 설명이 동시에 나올 수 있도록 문제를 잡는 것이 중요하다. > 해석이 가능한 모델들을 통해 원래는 복잡했던 모델을 이해가능하게 분해하겠다. Introduction 머신
LIME : “Why Should I Trust You?”
본 논문에서는 LIME(Local Interpretable Model-Agnostic Explanations)이라는 새로운 설명 기법을 제안합니다. LIME의 주요 목표는 예측 주변에서 로컬로 해석 가
Module 2. Explainable AI (XAI)
해당 포스트는 LG Aimers 활동 중 서울대학교 문태섭 교수님의 강의자료를 기반으로 작성된 글입니다. 학습 정리용으로 작성하였으며, 잘못되었거나 수정해야 할 내용이 있을 수 있습니다. 해당 내용이 있다면 이메일이나 댓글로 알려주세요. 감사합니다.

[논문 정리] “Why Should I Trust You?” Explaining the Predictions of Any Classifier
이번에 정리할 논문은 LIME(Local Interpretable Model-Agnostic Explanation) 기법을 제안한 “Why Should I Trust You?” Explaining the Predictions of Any Classifier 입니다.
[Review] XAI 설명 가능한 인공지능, 인공지능을 해부하다
회사 업무적으로 필요한 내용은 아니었다. 동료 분석가들끼리 고민하는 내용이 상무, 회장 등 임원분들의 이해를 돕게끔 설명하는 과정에서 어려운 부분이 많았다. 예측력보다는 설명력을 요구하는 경우가 많았고, 그러던 도중에 자연스럽게 XAI(설명가능한 인공지능)을 접하게 되었다. 머신러닝, 딥러닝을 진행하다보면 블랙박스(머신러닝 모델의 의사결정 과정을 인간이...

[테크니컬리포트] Analysis of Autonomous Driving Image Classification Using XAI
도로 주행 이미지를 분류하는 데 Adversarial Learning을 적용한 XAI 모델을 사용한 연구 리포트입니다.

[1주차] LIME 논문 리뷰 : “Why Should I Trust You? Explaining the Predictions of Any Classifier"
본 글은 XAI 기법 중 LIME에 관한 논문을 참고하여 작성하였습니다. (작성자: 15기 박진수)

[논문 리뷰] LIME : “Why Should I Trust You? Explaining the Predictions of Any Classifier"
본 글은 XAI 기법 중 LIME에 관한 논문("Why Should I Trust You?": Explaining the Predictions of Any Classifier)을 참고하여 작성하였습니다.

[1주차] 대리분석(LIME)
LIME은 복잡한 딥러닝 모델(블랙박스 모델)을 간단한 설명 가능 모델로 모사함으로써 딥러닝 모델의 판단 근거를 설명하는 기법입니다. (작성자 : 15기 박진수)

대리 분석과 Local Interpretable Model-Agnostic Explanation (LIME)
대리 분석은 이름에서 예상할 수 있듯이 본래 기능을 흉내내는 대체재를 만들어 프로토타입이 동작하는지 판단하는 분석 방법이다.