Publikacja prezentuje nowoczesne koncepcje i metody, mające na celu budowanie większego zaufania do inteligentnych systemów komputerowych, poprzez przedstawianie ich interpretacji, czy objaśnień. Przybliżone zostaną m.in. SHAP (ang. shapley additive explanations), LIME (ang. locally interpretable model-agnostic explanations), Anchor i metoda granicy decyzyjnej (ang. decision boundary) [Hase & Bansal, 2020].
Wraz z upowszechnieniem się stosowania uczenia maszynowego, jako zestawu technik i narzędzi do rozwiązywania problemów biznesowych, zaczął narastać problem zapewnienia ich interpretowalności i budowania zaufania do generowanych predykcji [Gunning i in., 2019]. Zjawisko to nasiliło się, po osiągnięciu (w niektórych dziedzinach) przez głębokie sieci neuronowe wyników, przekraczających możliwości człowieka, przy jednoczesnym braku prostych metod ustalenia źródeł podejmowanych przez nie decyzji [Holzinger, 2018]. Wejście w życie przepisów nakładających obowiązek ścisłej ochrony danych osobowych i zapewnienia transparentności procesu ich przetwarzania (RODO) stały się przyczynkiem do dyskusji nad koncepcją XAI – „możliwych do wyjaśnienia metod sztucznej inteligencji” (ang. eXplainable Artificial Intelligence) [Holzinger i in., 2018]. Obszary życia społecznego, o szczególnie istotnym znaczeniu i wrażliwości (jak np. medycyna, wymiar sprawiedliwości czy rynki finansowe), w których wykorzystywane jest uczenie maszynowe, powinny mieć dostęp do technik pogłębionej analizy otrzymywanych wyników. Niektórzy autorzy postulują nawet, by zaprzestać używania algorytmów o wyjątkowo skomplikowanej wewnętrznej strukturze, w przypadku decyzji niosących ze sobą wysokie koszty potencjalnej pomyłki [Rudin, 2019].
Podczas wystąpienia zaprezentowane zostaną nowoczesne koncepcje i metody, mające na celu budowanie większego zaufania do inteligentnych systemów komputerowych, poprzez przedstawianie ich interpretacji, czy objaśnień. Przybliżone zostaną m.in. SHAP (ang. shapley additive explanations), LIME (ang. locally interpretable model-agnostic explanations), Anchor i metoda granicy decyzyjnej (ang. decision boundary) [Hase & Bansal, 2020].
Literatura:
Gunning, D., Stefik, M., Choi, J., Miller, T., Stumpf, S., & Yang, G. Z. (2019). XAI-Explainable artificial intelligence. Science Robotics.
Hase, P., & Bansal, M. (2020). Evaluating Explainable AI: Which Algorithmic Explanations Help Users Predict Model Behavior? arXiv preprint arXiv:2005.01831.
Holzinger, A. (2018). From machine learning to explainable AI. DISA 2018 - IEEE World Symposium on Digital Intelligence for Systems and Machines, Proceedings, January, 55–66.
Holzinger, A., Kieseberg, P., Weippl, E., & Tjoa, A. M. (2018). Current advances, trends and challenges of machine learning and knowledge extraction: from machine learning to explainable AI. International Cross-Domain Conference for Machine Learning and Knowledge Extraction, 1–8.
Rudin, C. (2019). Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead. Nature Machine Intelligence, 1(5), 206–215.