Анализ моделей машинного обучения на основе методов объяснимого искусственного интеллекта в образовательной аналитике
Main Article Content
Аннотация
Проблема прогнозирования досрочного отчисления студентов российских вузов является актуальной, поэтому требуется разработка новых инновационных подходов для её решения. Для решения данной проблемы возможна разработка предиктивных систем на основе использования данных о студентах, имеющихся в информационных системах вузов. В настоящей работе исследованы модели машинного обучения для прогнозирования досрочного отчисления студентов, обученные на основе данных о характеристиках и успеваемости студентов. Основная научная новизна работы заключается в использовании методов объяснимого ИИ для интерпретации и объяснения функционирования обученных моделей машинного обучения. Методы объяснимого искусственного интеллекта позволяют понять, какие из входных признаков (характеристик студента) оказывают наибольшее влияние на результаты прогнозов обученных моделей, а также могут помочь понять, почему модели принимают те или иные решения. Полученные результаты расширяют понимание влияния различных факторов на досрочное отчисление студентов.
Article Details
Библиографические ссылки
2. Терентьев E.A., Груздев И.А., Горбунова Е.В. Суд идёт: дискурс преподавателей об отсеве студентов // Вопросы образования. 2015. № 2. С. 129–151. https://doi.org/10.17323/1814-9545-2015-2-129-151
3. Горбунова Е.В. Выбытия студентов из вузов: исследования в России и США // Вопросы образования. 2018. № 1. С. 110–131. https://doi.org/10.17323/1814-9545-2018-1-110-131
4. Горбунова Е.В. Влияние адаптации первокурсников к университету на вероятность их отчисления из вуза // Universitas. Журнал о жизни университетов. 2013. № 2 (1). С. 59–84.
5. Климова Т.А., Ким А.Т., Отт М.А. Индивидуальные образовательные траектории студентов как условие качественного университетского образования // Университетское управление: практика и анализ. 2023. 27 (1). С. 23–33. https://doi.org/10.15826/umpa.2023.01.003
6. Мещеряков А.О., Баянова Н.А., Калинина Е.А., Денисов В.А. Предикторы выбытия студентов медицинского вуза // Медицинское образование и профессиональное развитие. 2022. № 3 (47). URL: https://www.medobr.ru/ru/jarticles/736.html?SSr=0101348cba14ffffffff27c__07e60b0e0e0130-1843 (дата обращения 01.03.2024)
7. Шмелева Е. Д. Факторы отсева студентов инженерно-технического профиля в российских вузах // Вопросы образования. 2020. № 3. С. 110–136.
8. Мухамадиева К.Б. Машинное обучение в совершенствовании образовательной среды // Образование и проблемы развития общества. 2020. № 4 (13). С. 70–77.
9. Avanti Shrikumar, Peyton Greenside, and Anshul Kundaje. Learning important features through propagating activation differences // ICML’17. 2017. P. 3145–3153. URL: https://proceedings.mlr.press/v70/shrikumar17a.html (дата обращения 01.03.2024)
10. Daniel W. Apley, Jingyu Zhu. Visualizing the Effects of Predictor Variables in Black Box Supervised Learning Models // Journal of the Royal Statistical Society Series B: Statistical Methodology. 2020. No 4 (82). P. 1059–1086. https://doi.org/10.1111/rssb.12377
11. Linardatos P., Papastefanopoulos V., Kotsiantis S. Explainable AI: A Review of Machine Learning Interpretability Methods // Entropy. 2020. https://doi.org/10.3390/e23010018
12. Rachha A., Seyam M. Explainable AI in Education: Current Trends, Challenges, And Opportunities // SoutheastCon. 2023. P. 232–239. https://doi.org/10.1109/SoutheastCon51012.2023.10115140
13. Fan F.L., Xiong J., Li M., Wang G. On Interpretability of Artificial Neural Networks: A Survey // IEEE Trans Radiat. Plasma Med Sci. 2021. No. 5 6). P. 741–760. https://doi.org/10.1109/trpms.2021.3066428
14. Fiore U. Neural Networks in the Educational Sector: Challenges and Opportunities // Balkan Region Conference on Engineering and Business Education. 2019. No 1 (1). P. 332–337. https://doi.org/10.2478/cplbu-2020-0039
15. Montavon G., Samek W., Müller K.-R. Methods for interpreting and understanding deep neural networks // Digital Signal Processing. 2018. No. 73. P. 1–15. https://doi.org/10.1016/j.dsp.2017.10.011
16. Saranya A., Subhashini R. A systematic review of Explainable Artificial Intelligence models and applications: Recent developments and future trends // Decision Analytics Journal. 2023. No. 7. https://doi.org/10.1016/j.dajour.2023.100230
17. Murdoch W.J., Singh C., Kumbier K., Abbasi-Asl R., Yu B. Definitions, methods, and applications in interpretable machine learning // Proceedings of the National Academy of Sciences. 2019. No. 16 (44). P. 22071–22080
18. Meyer Lauritsen S. et al. Explainable artificial intelligence model to predict acute critical illness from electronic health records // Nature Communications. 2020. № 11 (1).
19. Linden T., Jong J., Lu C., Kiri V., Haeffs K., Fröhlich H. An explainable multimodal neural network architecture for predicting epilepsy comorbidities based on administrative claims data // Frontiers in Artificial Intelligence. 2021. No. 4. https://doi.org/10.3389/frai.2021.610197
20. Lu Y., Murzakhanov I., Chatzivasileiadis S. Neural network interpretability for forecasting of aggregated renewable generation // In Proceedings of 2021 IEEE International Conference on Communications, Control, and Computing Technologies for Smart Grids. 2021. P. 282–288.
21. Mai-Anh T. Vu и др. A shared vision for machine learning in neuroscience // Journal of Neuroscience. 2018. 38 (7). P. 1601–1607.
22. Sundararajan M., Taly A., and Yan Q. Axiomatic attribution for deep networks // CoRR. 2017. URL: https://arxiv.org/abs/1703.01365
23. Kokhlikyan N. др. Captum: A unified and generic model interpretability library for pytorch // CoRR. 2020. URL: https://arxiv.org/abs/2009.07896 (дата обращения 01.03.2024)
24. Lundberg S.M., Lee S.-I. A unified approach to interpreting model predictions // Advances in Neural Information Processing Systems. 2017. No. 30. P. 4765–4774.
25. Linardatos P., Papastefanopoulos V., Kotsiantis S. Explainable AI: A Review of Machine Learning Interpretability Methods // Entropy. 2020. https://doi.org/10.3390/e23010018
26. Sahakyan M., Aung Z., Rahwan T. Explainable Artificial Intelligence for Tabular Data: A Survey // IEEE Access. 2021. No. 9. P. 135392–135422. https://doi.org/10.1109/ACCESS.2021.3116481
27. Шобонов Н.А., Булаева М.Н., Зиновьева С.А. Искусственный интеллект в образовании // Проблемы современного педагогического образования. № 79 (4). 2023. С. 288–290.
28. Hassan Khosravi и др. Explainable Artificial Intelligence in education // Computers and Education: Artificial Intelligence. 2022. No. 3. https://doi.org/10.1016/j.caeai.2022.100074
29. Гафаров Ф.М., Руднева Я.Б., Шарифов У.Ю. Прогностическое моделирование в высшем образовании: определение факторов академической успеваемости // Высшее образование в России. 2023. Т. 32. № 1. С. 51–70. https://doi.org/10.31992/0869-3617-2023-32-1-51-7
Это произведение доступно по лицензии Creative Commons «Attribution» («Атрибуция») 4.0 Всемирная.
Представляя статьи для публикации в журнале «Электронные библиотеки», авторы автоматически дают согласие предоставить ограниченную лицензию на использование материалов Казанскому (Приволжскому) федеральному университету (КФУ) (разумеется, лишь в том случае, если статья будет принята к публикации). Это означает, что КФУ имеет право опубликовать статью в ближайшем выпуске журнала (на веб-сайте или в печатной форме), а также переиздавать эту статью на архивных компакт-дисках журнала или включить в ту или иную информационную систему или базу данных, производимую КФУ.
Все авторские материалы размещены в журнале «Электронные библиотеки» с ведома авторов. В случае, если у кого-либо из авторов есть возражения против публикации его материалов на данном сайте, материал может быть снят при условии уведомления редакции журнала в письменной форме.
Документы, изданные в журнале «Электронные библиотеки», защищены законодательством об авторских правах, и все авторские права сохраняются за авторами. Авторы самостоятельно следят за соблюдением своих прав на воспроизводство или перевод их работ, опубликованных в журнале. Если материал, опубликованный в журнале «Электронные библиотеки», с разрешения автора переиздается другим издателем или переводится на другой язык, то ссылка на оригинальную публикацию обязательна.
Передавая статьи для опубликования в журнале «Электронные библиотеки», авторы должны принимать в расчет, что публикации в интернете, с одной стороны, предоставляют уникальные возможности доступа к их материалам, но, с другой, являются новой формой обмена информацией в глобальном информационном обществе, где авторы и издатели пока не всегда обеспечены защитой от неправомочного копирования или иного использования материалов, защищенных авторским правом.
При использовании материалов из журнала обязательна ссылка на URL: http://rdl-journal.ru. Любые изменения, дополнения или редактирования авторского текста недопустимы. Копирование отдельных фрагментов статей из журнала разрешается для научных исследований, персонального использования, коммерческого использования до тех пор, пока есть ссылка на оригинальную статью.
Запросы на право переиздания или использования любых материалов, опубликованных в журнале «Электронные библиотеки», следует направлять главному редактору Елизарову А.М. по адресу: amelizarov@gmail.com
Издатели журнала «Электронные библиотеки» не несут ответственности за точки зрения, излагаемые в публикуемых авторских статьях.
Предлагаем авторам статей загрузить с этой страницы, подписать и выслать в адрес издателя журнала по электронной почте скан Авторского договора о передаче неисключительных прав на использование произведения.