Ядро верифицируемой объяснимости: гибридная архитектура GD-ANFIS/SHAP для XAI 2.0 *

Main Article Content

Юрий Владиславович Трофимов
Александр Дмитриевич Лебедев
Андрей Сергеевич Ильин
Алексей Николаевич Аверкин

Аннотация

Предложена гибридная архитектура Explainable AI, совмещающая полностью дифференцируемую нейро-нечеткую модель GD-ANFIS и пост-хок метод SHAP. Интеграция выполнена с целью реализации принципов XAI 2.0, требующих одновременной прозрачности, проверяемости и адаптивности объяснений.


GD-ANFIS формирует человеческо-читаемые правила типа Такаги – Сугено, обеспечивая структурную интерпретируемость, тогда как SHAP вычисляет количественные вклады признаков по теории Шепли. Для объединения этих слоев разработан механизм компаративного аудита: он автоматически сопоставляет наборы ключевых признаков, проверяет совпадение направлений их влияния и анализирует согласованность между числовыми оценками SHAP и лингвистическими правилами GD-ANFIS. Такой двухконтурный контроль повышает доверие к выводам модели и позволяет оперативно выявлять потенциальные расхождения.


Эффективность подхода подтверждена экспериментами на четырех разнородных наборах данных. В медицинской задаче классификации Breast Cancer Wisconsin достигнута точность 0.982; в задаче глобального картирования просадок грунта — 0.89. В регрессионных тестах на Boston Housing и мониторинге качества поверхностных вод получены RMSE 2.30 и 2.36 соответственно при полном сохранении интерпретируемости. Во всех случаях пересечение топ-признаков в объяснениях двух методов составляло не менее 60%, что демонстрирует высокую согласованность структурных и числовых трактовок.


Предложенная архитектура формирует практическую основу для ответственного внедрения XAI 2.0 в критически важных областях — от медицины и экологии до геоинформационных систем и финансового сектора.

Article Details

Как цитировать
Трофимов, Ю. В., А. Д. Лебедев, А. С. Ильин, и А. Н. Аверкин. «Ядро верифицируемой объяснимости: гибридная архитектура GD-ANFIS/SHAP для XAI 2.0 *». Электронные библиотеки, т. 28, вып. 5, декабрь 2025 г., сс. 1230-52, doi:10.26907/1562-5419-2025-28-5-1230-1252.

Библиографические ссылки

1. Trofimov Y.V., Shevchenko A.V., Averkin A.N., Muravyov I.P., Kuznetsov E.M. Concept of hierarchically organized explainable intelligent systems: synthesis of deep neural networks, fuzzy logic and incremental learning in medical diagnostics // Proceedings of the VI International Conference on Neural Networks and Neurotechnologies (NeuroNT). 2025. P. 14–17. https://doi.org/10.1109/NeuroNT66873.2025.11049976
2. Rudin C. Stop explaining black box machine learning models for high‑stakes decisions and use interpretable models instead // Nature Machine Intelligence. 2019. Vol. 1, No. 5. P. 206–215. https://doi.org/10.1038/s42256-019-0048-x
3. Lundberg S.M., Lee S.-I. A unified approach to interpreting model predictions // Advances in Neural Information Processing Systems. 2017. Vol. 30. P. 4765–4774. https://doi.org/10.48550/arXiv.1705.07874
4. Ribeiro M.T., Singh S., Guestrin C. “Why Should I Trust You?” Explaining the predictions of any classifier // Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. 2016. P. 1135–1144. https://doi.org/10.1145/2939672.2939778
5. Lipton Z.C. The mythos of model interpretability // Communications of the ACM. 2018. Vol. 61, no. 10. P. 36–43. https://doi.org/10.1145/3233231
6. Doshi-Velez F., Kim B. Towards a rigorous science of interpretable machine learning // arXiv preprint. 2017. arXiv:1702.08608. https://doi.org/10.48550/arXiv.1702.08608
7. Jang J.S.R. ANFIS: Adaptive-network-based fuzzy inference system // IEEE Transactions on Systems, Man, and Cybernetics. 1993. Vol. 23, no. 3. P. 665–685 https://doi.org/10.1109/21.256541
8. Zadeh L.A. Fuzzy sets // Information and Control. 1965. Vol. 8, No. 3. P. 338–353. https://doi.org/10.1016/S0019-9958(65)90241-X
9. Trofimov Y.V., Averkin A.N. The relationship between trusted artificial intelligence and XAI 2.0: theory and frameworks // Soft Measurements and Computing. 2025. Vol. 90, No. 5. P. 68–84. https://doi.org/10.36871/2618-9976.2025.05.006
10. Takagi T., Sugeno M. Fuzzy identification of systems and its applications to modeling and control // IEEE Transactions on Systems, Man, and Cybernetics. 1985. Vol. 15, No. 1. P. 116–132. https://doi.org/10.1109/TSMC.1985.6313399
11. Nguyen T., Mirjalili S. X‑ANFIS: explainable adaptive neuro‑fuzzy inference system: repository. Электрон. ресурс // GitHub. 2023. Дата обращения: 15.01.2025.
12. Shapley L.S. A value for n‑person games // Contributions to the Theory of Games, vol. 2. Princeton University Press. 1953. P. 307–317. https://doi.org/10.1515/9781400881970-018
13. Breiman L. Random forests // Machine Learning. 2001. Vol. 45, no. 1. P. 5–32. https://doi.org/10.1023/A:1010933404324
14. Comprehensive surface water quality monitoring dataset (1940–2023): dataset. Электрон. ресурс // Figshare. 2025. https://doi.org/10.6084/m9.figshare.27800394. Дата обращения: июль 2025.
15. Hasan M.F., Smith R., Vajedian S., Majumdar S., Pommerenke R. Global land subsidence mapping reveals widespread loss of aquifer storage capacity // Nature Communications. 2023. Vol. 14. Art. 6180. https://doi.org/10.1038/s41467-023-41933-z


Наиболее читаемые статьи этого автора (авторов)