Использование семантического поиска для выбора и ранжирования научных геологических публикаций
Main Article Content
Аннотация
Агрегирование научной информации играет важную роль для комплексного анализа геологических объектов. В настоящей работе мы рассматриваем потенциал и возможности семантического поиска для выбора тематически близких геологических публикаций. Проанализированы различные языковые модели в контексте нахождения сходства и различия между текстами при описании месторождений полезных ископаемых. Показано значительное улучшение результатов поиска после дополнительной тренировки языковых моделей. Представлены два веб-сервиса, основанных на методе расчета семантической близости текстов с количественной оценкой меры близости.
Ключевые слова:
Article Details
Библиографические ссылки
2. Ваш путеводитель по миру NLP (обработке естественного языка). URL: https://habr.com/ru/companies/otus/articles/705482/ (дата обращения 10.09.2024)
3. Semantic similarity. URL: https://en.wikipedia.org/wiki/Semantic_similarity (дата обращения 10.09.2024)
4. Devlin J., Chang M.W., Lee K., Toutanova K. Bert: pre-training of deep bidirectional transformers for language understanding. URL: arxiv.org/abs/1810.04805 (2018)
5. Объясняем простым языком, что такое трансформеры. URL: https://habr.com/ru/companies/mws/articles/770202/ (дата обращения 10.09.2024)
6. BERT (языковая модель). URL: https://neerc.ifmo.ru/wiki/index.php?title= BERT_(языковая_модель) (дата обращения 10.09.2024)
7. BERT community. URL: https://huggingface.co/google-bert (дата обращения 10.09.2024)
8. Akila D., Jayakumar C. Semantic Similarity – A Review of Approaches and Metrics // International Journal of Applied Engineering Research. 2014. Vol. 9, No. 24. P. 27581–27600.
9. TF-IDF. URL: https://ru.wikipedia.org/wiki/TF-IDF (дата обращения 10.09.2024)
10. Okapi BM25. URL: https://ru.wikipedia.org/wiki/Okapi_BM25 (дата обращения 10.11.2024)
11. Word2vec. URL: https://ru.wikipedia.org/wiki/Word2vec (дата обращения 10.09.2024)
12. Краснов Ф.В., Смазневич И.С., Баскакова Е.Н. Проблема потери решений в задаче поиска схожих документов: Применение терминологии при построении векторной модели корпуса // Бизнес-информатика. 2021. Т. 15. № 2. С. 60–74. https://doi.org/10.17323/2587-814X.2021.2.60.74
13. Атаева О.М., Серебряков В.А., Тучкова Н.П. Модель поиска схожих документов в семантической библиотеке // Научный сервис в сети Интернет: труды XXIII Всероссийской научной конференции (20–23 сентября 2021 г., онлайн). М.: ИПМ им. М.В. Келдыша, 2021. С. 54–64. https://doi.org/10.20948/abrau-2021-24
14. Kanerva J., Kitti H., Chang L.-H., Vahtola T., Creutz M., Ginter F. Semantic search as extractive paraphrase span detection // Lang Resources and Evaluation. 2024. https://doi.org/10.1007/s10579-023-09715-7
15. Denghui Yang, Dengyun Zhu, Hailong Gai, Fucheng Wan. Semantic Similarity Calculating based on BERT // Journal of Electrical Systems. 2024. Vol. 20, No. 2. P. 73–79.
16. Kuang M. et al. Multi-task Learning Based Keywords Weighted Siamese Model for Semantic Retrieval // In: Kashima H., Ide T., Peng W/C. (Eds.) Advances in Knowledge Discovery and Data Mining. PAKDD 2023. Lecture Notes in Computer Science. 2023. Vol. 13937. Springer, Cham. https://doi.org/10.1007/978-3-031-33380-4_7
17. Elibrary. URL: https://www.elibrary.ru/defaultx.asp (дата обращения 10.11.2024)
18. Sci-rus-tiny. URL: https://huggingface.co/mlsa-iai-msu-lab/sci-rus-tiny (дата обращения 10.09.2024)
19. ruSciBench — бенчмарк для оценки эмбеддингов научных текстов. URL: https://habr.com/ru/articles/781032/ (дата обращения 10.09.2024).
20. Научная электронная библиотека «КиберЛенинка». URL: https://cyberleninka.ru/ (дата обращения 10.09.2024)
21. Fine-tuning BERT for Semantic Textual Similarity with Transformers in Python. URL: https://thepythoncode.com/article/finetune-bert-for-semantic-textual-similarity-in-python (дата обращения 10.09.2024)
22. Lawley C.J.M., Raimondo S., Chen T., Brin L., Zakharov A., Kur D., Hui J., Newton G., Burgoyne S.L., Marquis G. Geoscience language models and their intrinsic evaluation // Applied Computing and Geosciences. 2022. Vol. 14, 100084. P. 1–10. https://doi.org/10.1016/j.acags.2022.100084
23. Cosine similarity. URL: https://en.wikipedia.org/wiki/Cosine_similarity (дата обращения 10.09.2024)
24. Rubert-tiny2. URL: https://huggingface.co/cointegrated/rubert-tiny2 (дата обращения 10.09.2024)
25. Multilingual-e5-base. URL: https://huggingface.co/intfloat/multilingual-e5-base (дата обращения 10.09.2024)
26. E5-large-en-ru. URL: https://huggingface.co/d0rj/e5-large-en-ru (дата обращения 10.09.2024)
27. Multilingual-e5-large. URL: https://huggingface.co/intfloat/multilingual-e5-large (дата обращения 10.09.2024)
28. Тест производительности. URL: https://ru.wikipedia.org/wiki/Тест_производительности (дата обращения 10.09.2024)
29. Патук М.И., Наумова В.В., Ерёменко В.С. Цифровой репозиторий "geologyscience.ru": открытый доступ к научным публикациям по геологии России // Электронные библиотеки. 2020. Т. 23, № 6. С. 1324–1338. https://doi.org/10.26907/1562-5419-2020-23-6-1324-1338
30. Geologyscience.ru – Виртуальный ассистент – Сервисы с использованием ИИ – Сервисы нейросетевого анализа геологических текстов. URL: https://service.geologyscience.ru/ (дата обращения 10.09.2024)
Это произведение доступно по лицензии Creative Commons «Attribution» («Атрибуция») 4.0 Всемирная.
Представляя статьи для публикации в журнале «Электронные библиотеки», авторы автоматически дают согласие предоставить ограниченную лицензию на использование материалов Казанскому (Приволжскому) федеральному университету (КФУ) (разумеется, лишь в том случае, если статья будет принята к публикации). Это означает, что КФУ имеет право опубликовать статью в ближайшем выпуске журнала (на веб-сайте или в печатной форме), а также переиздавать эту статью на архивных компакт-дисках журнала или включить в ту или иную информационную систему или базу данных, производимую КФУ.
Все авторские материалы размещены в журнале «Электронные библиотеки» с ведома авторов. В случае, если у кого-либо из авторов есть возражения против публикации его материалов на данном сайте, материал может быть снят при условии уведомления редакции журнала в письменной форме.
Документы, изданные в журнале «Электронные библиотеки», защищены законодательством об авторских правах, и все авторские права сохраняются за авторами. Авторы самостоятельно следят за соблюдением своих прав на воспроизводство или перевод их работ, опубликованных в журнале. Если материал, опубликованный в журнале «Электронные библиотеки», с разрешения автора переиздается другим издателем или переводится на другой язык, то ссылка на оригинальную публикацию обязательна.
Передавая статьи для опубликования в журнале «Электронные библиотеки», авторы должны принимать в расчет, что публикации в интернете, с одной стороны, предоставляют уникальные возможности доступа к их материалам, но, с другой, являются новой формой обмена информацией в глобальном информационном обществе, где авторы и издатели пока не всегда обеспечены защитой от неправомочного копирования или иного использования материалов, защищенных авторским правом.
При использовании материалов из журнала обязательна ссылка на URL: http://rdl-journal.ru. Любые изменения, дополнения или редактирования авторского текста недопустимы. Копирование отдельных фрагментов статей из журнала разрешается для научных исследований, персонального использования, коммерческого использования до тех пор, пока есть ссылка на оригинальную статью.
Запросы на право переиздания или использования любых материалов, опубликованных в журнале «Электронные библиотеки», следует направлять главному редактору Елизарову А.М. по адресу: amelizarov@gmail.com
Издатели журнала «Электронные библиотеки» не несут ответственности за точки зрения, излагаемые в публикуемых авторских статьях.
Предлагаем авторам статей загрузить с этой страницы, подписать и выслать в адрес издателя журнала по электронной почте скан Авторского договора о передаче неисключительных прав на использование произведения.