LIME (Local Interpretable Model-Agnostic Explanations) là một kỹ thuật thay thế có thể được áp dụng cho bất kỳ mô hình học máy nào để diễn giải các dự đoán của nó. Kỹ thuật này cố gắng hiểu mô hình bằng cách đảo lộn đầu vào của các mẫu dữ liệu và hiểu các dự đoán thay đổi như thế nào.
Khả năng diễn giải cục bộ là diễn giải / giải thích quyết định về mô hình tại một điểm dữ liệu duy nhất, trong khi Khả năng diễn giải toàn cầu liên quan đến việc diễn giải mô hình như một tổng thể trên toàn bộ tập dữ liệu. Mô hình-Bất khả tri có nghĩa là kỹ thuật này có thể được áp dụng cho bất kỳ mô hình học máy hộp đen nào nói chung.
Phương pháp này giải thích các dự đoán riêng lẻ của bất kỳ bộ phân loại nào theo cách có thể diễn giải và trung thực, bằng cách học một mô hình có thể diễn giải (ví dụ: mô hình tuyến tính) cục bộ xung quanh mỗi dự đoán. Cụ thể, LIME ước tính các phân bổ tính năng trên các trường hợp riêng lẻ, ghi lại sự đóng góp của từng tính năng trên dự đoán hộp đen.
Tài liệu tham khảo
1. S. Sahay, N. Omare and K. K. Shukla, "An Approach to identify Captioning Keywords in an Image using LIME," 2021 International Conference on Computing, Communication, and Intelligent Systems (ICCCIS), 2021, pp. 648-651, doi: 10.1109/ICCCIS51004.2021.9397159.
2. Marco Tulio Ribeiro, Sameer Singh, and Carlos Guestrin. 2016. "Why Should I Trust You?": Explaining the Predictions of Any Classifier. In Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (KDD '16). Association for Computing Machinery, New York, NY, USA, 1135–1144. https://doi.org/10.1145/2939672.2939778