Поиск слов в рукописном тексте на основе штриховой сегментации

Main Article Content

Иван Дмитриевич Морозов
Леонид Моисеевич Местецкий

Аннотация

Рукописные архивные документы составляют фундаментальную часть культурного наследия человечества, однако их анализ остается трудоемкой задачей для профессиональных исследователей-историков, филологов и лингвистов. В отличие от коммерческих приложений систем OCR (Optical Character Recognition, оптического распознавания символов), работа с историческими рукописями требует принципиально иного подхода из-за чрезвычайного многообразия почерков, наличия правок и деградации материалов.


Предложен метод поиска в рукописных текстах, основанный на штриховой сегментации. Вместо полного распознавания текста, часто недостижимого для исторических документов, метод позволяет эффективно отвечать на поисковые запросы исследователей. Ключевая идея заключается в декомпозиции текста на элементарные штрихи, формировании семантических векторных представлений с помощью контрастного обучения, последующей кластеризации и классификации для создания адаптивного словаря почерка.


Экспериментально показано, что поиск сравнением кортежей редуцированных последовательностей наиболее информативных штрихов по расстоянию Левенштейна обеспечивает достаточное качество для рассматриваемой задачи. Метод демонстрирует устойчивость к индивидуальным особенностям почерка и вариациям написания, что особенно важно для работы с авторскими архивами и историческими документами.


Предложенный подход открывает новые возможности для ускорения научных исследований в гуманитарной сфере, позволяя сократить время поиска нужной информации с недель до минут, что качественно меняет возможности исследовательской работы с большими архивами рукописных документов.

Article Details

Как цитировать
Морозов, И. Д., и Л. М. Местецкий. «Поиск слов в рукописном тексте на основе штриховой сегментации». Электронные библиотеки, т. 28, вып. 6, декабрь 2025 г., сс. 1435-53, doi:10.26907/1562-5419-2025-28-6-1435-1453.

Библиографические ссылки

1. Zhang X.-Y., Sun Z., Jin L., Ni H. & Lyons T. J. Learning Spatial–Semantic Context with Fully Convolutional Recurrent Network for Online Handwritten Chinese Text Recognition // IEEE Transactions on Pattern Analysis and Machine Intelligence. 2018. Vol. 40, no. 8. P. 1903–1917. https://doi.org/10.1109/tpami.2017.2732978
2. Rahal N., Vögtlin L., Ingold R. Historical Document Image Analysis Using Controlled Data for Pretraining // International Journal on Document Analysis and Recognition (IJDAR). 2023. Vol. 26, no. 3. P. 241–254. https://doi.org/10.1007/s10032-023-00437-8
3. Puigcerver J. Are Multidimensional Recurrent Layers Really Necessary for Handwritten Text Recognition? // 14th IAPR International Conference on Document Analysis and Recognition (ICDAR). 2017. Vol. 1. P. 67–72. https://doi.org/10.1109/ICDAR.2017.20
4. Rath T. M., Manmatha R. Word Spotting for Historical Documents // International Journal on Document Analysis and Recognition (IJDAR). 2007. Vol. 9, no. 2–4. P. 139–152. https://doi.org/10.1007/s10032-006-0027-8
5. Mestetskii L.M. Continuous Morphology of Binary Images: Figures, Skeletons, Circulars. M.: FIZMATLIT, 2009. 231 p.
6. Mestetskiy L.M. Stroke Segmentation of Handwritten Text Based on Medial Representation // Pattern Recognition and Image Analysis: Advances in Mathematical Theory and Applications. 2024. Vol. 34, no. 4. P. 1185-1191. https://doi.org/10.1134/S1054661824701256
7. Dias C. da S., Britto Jr. A. de S., Barddal J. P., Heutte L., Koerich A. L. Pattern Spotting and Image Retrieval in Historical Documents using Deep Hashing. 2022. arXiv:2208.02397
8. He K., Zhang X., Ren S., Sun J. Deep Residual Learning for Image Recognition // IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 2016. P. 770–778. https://doi.org/10.1109/CVPR.2016.90
9. Ester M., Kriegel H.-P., Sander J., Xu X. A Density-Based Algorithm for Discovering Clusters in Large Spatial Databases with Noise // 2nd International Conference on Knowledge Discovery and Data Mining (KDD). 1996. P. 226–231.