Автоматическая разметка обучающих выборок в компьютерном зрении с использованием методов машинного обучения
Main Article Content
Аннотация
Рассмотрена проблема автоматической разметки обучающих выборок в области компьютерного зрения с использованием методов машинного обучения.
Разметка данных является ключевым этапом в разработке и обучении моделей глубокого обучения, однако процесс создания размеченных данных зачастую требует значительных временных и трудовых затрат. В статье предложен механизм автоматической разметки, основанный на использовании сверточных нейронных сетей и методов активного обучения.
Предложенная методология включает анализ и оценку существующих подходов к автоматической разметке. Эффективность предложенных решений оценена на общедоступных наборах данных. Результаты показали, что предложенный метод в значительной мере сокращает время, необходимое для разметки данных, но в любом случае требует вмешательства оператора-разметчика.
Обзор литературы включает анализ современных методов разметки и существующих автоматических систем, что позволяет лучше понять контекст и преимущества предлагаемого подхода. В заключении обсуждены достижения, ограничения и возможные направления для будущих исследований в данной области.
Article Details
Библиографические ссылки
2. LabelImg for Image Annotation. URL: https://viso.ai/computer-vision/labelimg-for-image-annotation/.
3. VGG Image Annotator. URL: https://www.robots.ox.ac.uk/~vgg/software/via/via_demo.html.
4. Everingham M. et al. The pascal visual object classes challenge: A retrospective // International Journal of Computer Vision. 2015. Vol. 111. P. 98–136.
5. Berg A. et al. Semi-automatic annotation of objects in visual-thermal video // Proceedings of the IEEE/CVF International Conference on Computer Vision Workshops, 2019. https://doi.org/10.1109/ICCVW.2019.00277
6. Sager C., Janiesch C., Zschech P. A survey of image labelling for computer vision applications // Journal of Business Analytics. 2021. Vol. 4, No. 2. P. 91–110.
7. Cao J., Zhao A., Zhang Z. Automatic image annotation method based on a convolutional neural network with threshold optimization // Plos one. 2020. V. 15, No. 9. e0238956. https://doi.org/10.1371/journal.pone.0238956
8. Vatani A., Ahvanooey M.T., Rahimi M. An effective automatic image annotation model via attention model and data equilibrium // arXiv preprint arXiv:2001.10590. 2020.
9. Gu Y. et al. Automatic lung nodule detection using a 3D deep convolutional neural network combined with a multi-scale prediction strategy in chest CTs // Computers in Biology and Medicine. 2018. Vol. 103. P. 220–231.
10. Levine S. et al. Learning hand-eye coordination for robotic grasping with deep learning and large-scale data collection // The International Journal of Robotics Research. 2018. Vpl. 37, No. 4-5. P. 421–436.
11. Kirillov A. et al. Segment anything // Proceedings of the IEEE/CVF International Conference on Computer Vision. 2023. P. 4015–4026.
12. Zou X. et al. Segment everything everywhere all at once // Advances in Neural Information Processing Systems. NIPS '23: Proceedings of the 37th International Conference on Neural Information Processing Systems. Article No. 868. P.19769–19782. https://dl.acm.org/doi/10.5555/3666122.3666990
13. Ultralytics YOLOv8 Docs. URL: https://docs.ultralytics.com/ru.
14. COCO Dataset. URL: https://cocodataset.org/#home.
15. Cityscapes Dataset. URL: https://www.cityscapes-dataset.com/.
16. Auto-Label. URL: https://roboflow.com/auto-label.
Это произведение доступно по лицензии Creative Commons «Attribution» («Атрибуция») 4.0 Всемирная.
Представляя статьи для публикации в журнале «Электронные библиотеки», авторы автоматически дают согласие предоставить ограниченную лицензию на использование материалов Казанскому (Приволжскому) федеральному университету (КФУ) (разумеется, лишь в том случае, если статья будет принята к публикации). Это означает, что КФУ имеет право опубликовать статью в ближайшем выпуске журнала (на веб-сайте или в печатной форме), а также переиздавать эту статью на архивных компакт-дисках журнала или включить в ту или иную информационную систему или базу данных, производимую КФУ.
Все авторские материалы размещены в журнале «Электронные библиотеки» с ведома авторов. В случае, если у кого-либо из авторов есть возражения против публикации его материалов на данном сайте, материал может быть снят при условии уведомления редакции журнала в письменной форме.
Документы, изданные в журнале «Электронные библиотеки», защищены законодательством об авторских правах, и все авторские права сохраняются за авторами. Авторы самостоятельно следят за соблюдением своих прав на воспроизводство или перевод их работ, опубликованных в журнале. Если материал, опубликованный в журнале «Электронные библиотеки», с разрешения автора переиздается другим издателем или переводится на другой язык, то ссылка на оригинальную публикацию обязательна.
Передавая статьи для опубликования в журнале «Электронные библиотеки», авторы должны принимать в расчет, что публикации в интернете, с одной стороны, предоставляют уникальные возможности доступа к их материалам, но, с другой, являются новой формой обмена информацией в глобальном информационном обществе, где авторы и издатели пока не всегда обеспечены защитой от неправомочного копирования или иного использования материалов, защищенных авторским правом.
При использовании материалов из журнала обязательна ссылка на URL: http://rdl-journal.ru. Любые изменения, дополнения или редактирования авторского текста недопустимы. Копирование отдельных фрагментов статей из журнала разрешается для научных исследований, персонального использования, коммерческого использования до тех пор, пока есть ссылка на оригинальную статью.
Запросы на право переиздания или использования любых материалов, опубликованных в журнале «Электронные библиотеки», следует направлять главному редактору Елизарову А.М. по адресу: amelizarov@gmail.com
Издатели журнала «Электронные библиотеки» не несут ответственности за точки зрения, излагаемые в публикуемых авторских статьях.
Предлагаем авторам статей загрузить с этой страницы, подписать и выслать в адрес издателя журнала по электронной почте скан Авторского договора о передаче неисключительных прав на использование произведения.