СРАВНИТЕЛЬНЫЙ АНАЛИЗ ИЗОБРАЖЕНИЙ С ПОМОЩЬЮ ГЛУБИННЫХ НЕЙРОННЫХ СЕТЕЙ
##plugins.themes.bootstrap3.article.main##
Аннотация
Построение стабильной системы для оценки коэффициента схожести изображений очень сложная задача. В этой работе рассмотрен подход к обучению системы сравнения изображений, использующий техники глубинного обучения, а именно объединение всех этапов сравнения в одну глубинную нейронную сеть. Данный подход позволяет построить систему, которая имеет гораздо большую учебную емкость по сравнению с другими. Экспериментальная проверка системы проведена на тестовых изображениях, представляющих собой реальные фото одежды. Результаты подтверждают, что подход объединения системы в одну глубинную нейронную сеть позволяет повысить качество по сравнению с другими подходами, а также позволяет уменьшить размер полученного вектора признаков.
Библ. 15, рис. 4, табл. 2.
##plugins.themes.bootstrap3.article.details##
Это произведение доступно по лицензии Creative Commons «Attribution» («Атрибуция») 4.0 Всемирная.
Авторы, публикующиеся в данном журнале, соглашаются со следующими условиями:- Авторы сохраняют за собой права на авторство своей работы и предоставляют журналу право первой публикации этой работы на условиях лицензии Creative Commons Attribution License, которая позволяет другим лицам свободно распространять опубликованную работу с обязательной ссылокой на авторов оригинальной работы и оригинальную публикацию в этом журнале.
- Авторы сохраняют право заключать отдельные договора на неэксклюзивное распространение работы в том виде, в котором она была опубликована этим журналом (например, размещать работу в электронном архиве учреждения или публиковать в составе монографии), с условием сохраниения ссылки на оригинальную публикацию в этом журнале.
- Политика журнала разрешает и поощряет размещение авторами в сети Интернет (например в институтском хранилище или на персональном сайте) рукописи работы как до ее подачи в редакцию, так и во время ее редакционной обработки, так как это способствует продуктивной научной дискуссии и положительно сказывается на оперативности и динамике цитирования статьи (см. The Effect of Open Access).
Библиографические ссылки
Structure from motion. [Online]. Available: https://en.wikipedia.org/wiki/Structure_from_motion.
R. Hadsell, S. Chopra, and Y. LeCun. Dimensionality reduction by learning an invariant mapping. In CVPR, volume 2, pages 1735–1742. IEEE, 2006. DOI: 10.1109/CVPR.2006.100..
G. W. Taylor, I. Spiro, C. Bregler, and R. Fergus. Learning invariance through imitation. In CVPR, pages 2729–2736. IEEE, 2011. DOI: 10.1109/CVPR.2011.5995538
D. G. Lowe. Object recognition from local scale-invariant features. In ICCV, volume 2, pages 1150–1157. IEEE, 1999. DOI: 10.1109/ICCV.1999.790410
N. Dalal and B. Triggs. Histograms of Oriented Gradients for Human Detection. In CVPR, pages 886–893. IEEE, 2005. DOI: 10.1109/CVPR.2005.177.
Y.-L. Boureau, F. Bach, Y. LeCun, and J. Ponce. Learning mid-level features for recognition. In CVPR, pages 2559–2566. IEEE, 2010. DOI: 10.1109/CVPR.2010.5539963.
A. Krizhevsky, I. Sutskever, and G. Hinton. Imagenet classification with deep convolutional neural networks. In NIPS, pages 1106–1114, 2012.
Tuytelaars, T and Mikolajczyk, K (2008) Local invariant feature detectors: A survey Foundations and Trends in Computer Graphics and Vision, 3 (3). pp. 177-280.
E. Tola, V.Lepetit, and P. Fua. A Fast Local Descriptor for Dense Matching. In Proceedings of Computer Vision and Pattern Recognition, Alaska, USA, 2008. DOI: 10.1109/CVPR.2008.4587673.
V. Athitsos, J. Alon, S. Sclaroff, and G. Kollios. Boostmap: A method for efficient approximate similarity rankings. In IEEE Conf. on Computer Vision and Pattern Recognition, Madison, WI, June 2004. DOI: 10.1109/CVPR.2004.1315173.
A. S. Razavian, H. Azizpour, J. Sullivan, and S. Carlsson. CNN features off-the-shelf: An astounding baseline for recognition. In IEEE Conference on Computer Vision and Pattern Recognition, CVPR Workshops 2014, Columbus, OH, USA, June 23-28, 2014, pages 512–519, 2014. DOI: 10.1109/CVPRW.2014.131.
P. Fischer, A. Dosovitskiy, and T. Brox. Descriptor matching with convolutional neural networks: a comparison to SIFT, arXiv preprint arXiv:1405.5769, 2014: Available: https://arxiv.org/abs/1405.5769.
C. Szegedy, W. Liu, Y. Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, and A. Rabinovich, Going deeper with convolutions, arXiv preprint arXiv:1409.4842, 2014. Available: https://arxiv.org/abs/1409.4842.
Hlybynne navchannia [Deep Learning]. Available: https://uk.wikipedia.org/wiki/Глибинне_навчання.
Y. Jia, E. Shelhamer, J. Donahue, S. Karayev, J. Long, R. Girshick, S. Guadarrama, and T. Darrell, Caffe: Convolutional architecture for fast feature embedding, arXiv preprint arXiv:1408.5093, 2014. Available: https://arxiv.org/abs/1408.5093.