ПОРІВНЯЛЬНИЙ АНАЛІЗ ЗОБРАЖЕНЬ ЗА ДОПОМОГОЮ ГЛИБИННИХ НЕЙРОННИХ МЕРЕЖ
Основний зміст сторінки статті
Анотація
Побудова стабільної системи для виявлення коефіцієнту подібності зображень є досить складною задачею. Насамперед необхідно враховувати відмінності між різними класами об’єктів, що можуть бути на зображенні, а також відмінності між внутрішньокласовими представниками. В даній роботі розглянуто підхід до навчання системи порівняння зображень, що використовує техніки глибинного навчання, а саме об’єднання усіх етапів порівняння в одну глибинну нейронну мережу. Даний підхід дозволяє побудувати систему, що має набагато більшу навчальну ємність в порівнянні з іншими системами. Експериментальна перевірка системи проведена на тестових зображеннях, що представляють собою реальні фото одягу. Результати підтверджують, що підхід об’єднання системи в одну глибинну нейронну мережу дозволяє підвищити якість в порівнянні з іншими підходами, а також дозволяє зменшити розмір отриманого вектору ознак.
Бібл. 15, рис. 4, табл. 2.
Блок інформації про статтю
Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License.
Автори, які публікуються у цьому журналі, погоджуються з наступними умовами:- Автори залишають за собою право на авторство своєї роботи та передають журналу право першої публікації цієї роботи на умовах ліцензії Creative Commons Attribution License, котра дозволяє іншим особам вільно розповсюджувати опубліковану роботу з обов'язковим посиланням на авторів оригінальної роботи та першу публікацію роботи у цьому журналі.
- Автори мають право укладати самостійні додаткові угоди щодо неексклюзивного розповсюдження роботи у тому вигляді, в якому вона була опублікована цим журналом (наприклад, розміщувати роботу в електронному сховищі установи або публікувати у складі монографії), за умови збереження посилання на першу публікацію роботи у цьому журналі.
- Політика журналу дозволяє і заохочує розміщення авторами в мережі Інтернет (наприклад, у сховищах установ або на особистих веб-сайтах) рукопису роботи, як до подання цього рукопису до редакції, так і під час його редакційного опрацювання, оскільки це сприяє виникненню продуктивної наукової дискусії та позитивно позначається на оперативності та динаміці цитування опублікованої роботи (див. The Effect of Open Access).
Посилання
Structure from motion. [Online]. Available: https://en.wikipedia.org/wiki/Structure_from_motion.
R. Hadsell, S. Chopra, and Y. LeCun. Dimensionality reduction by learning an invariant mapping. In CVPR, volume 2, pages 1735–1742. IEEE, 2006. DOI: 10.1109/CVPR.2006.100..
G. W. Taylor, I. Spiro, C. Bregler, and R. Fergus. Learning invariance through imitation. In CVPR, pages 2729–2736. IEEE, 2011. DOI: 10.1109/CVPR.2011.5995538
D. G. Lowe. Object recognition from local scale-invariant features. In ICCV, volume 2, pages 1150–1157. IEEE, 1999. DOI: 10.1109/ICCV.1999.790410
N. Dalal and B. Triggs. Histograms of Oriented Gradients for Human Detection. In CVPR, pages 886–893. IEEE, 2005. DOI: 10.1109/CVPR.2005.177.
Y.-L. Boureau, F. Bach, Y. LeCun, and J. Ponce. Learning mid-level features for recognition. In CVPR, pages 2559–2566. IEEE, 2010. DOI: 10.1109/CVPR.2010.5539963.
A. Krizhevsky, I. Sutskever, and G. Hinton. Imagenet classification with deep convolutional neural networks. In NIPS, pages 1106–1114, 2012.
Tuytelaars, T and Mikolajczyk, K (2008) Local invariant feature detectors: A survey Foundations and Trends in Computer Graphics and Vision, 3 (3). pp. 177-280.
E. Tola, V.Lepetit, and P. Fua. A Fast Local Descriptor for Dense Matching. In Proceedings of Computer Vision and Pattern Recognition, Alaska, USA, 2008. DOI: 10.1109/CVPR.2008.4587673.
V. Athitsos, J. Alon, S. Sclaroff, and G. Kollios. Boostmap: A method for efficient approximate similarity rankings. In IEEE Conf. on Computer Vision and Pattern Recognition, Madison, WI, June 2004. DOI: 10.1109/CVPR.2004.1315173.
A. S. Razavian, H. Azizpour, J. Sullivan, and S. Carlsson. CNN features off-the-shelf: An astounding baseline for recognition. In IEEE Conference on Computer Vision and Pattern Recognition, CVPR Workshops 2014, Columbus, OH, USA, June 23-28, 2014, pages 512–519, 2014. DOI: 10.1109/CVPRW.2014.131.
P. Fischer, A. Dosovitskiy, and T. Brox. Descriptor matching with convolutional neural networks: a comparison to SIFT, arXiv preprint arXiv:1405.5769, 2014: Available: https://arxiv.org/abs/1405.5769.
C. Szegedy, W. Liu, Y. Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, and A. Rabinovich, Going deeper with convolutions, arXiv preprint arXiv:1409.4842, 2014. Available: https://arxiv.org/abs/1409.4842.
Hlybynne navchannia [Deep Learning]. Available: https://uk.wikipedia.org/wiki/Глибинне_навчання.
Y. Jia, E. Shelhamer, J. Donahue, S. Karayev, J. Long, R. Girshick, S. Guadarrama, and T. Darrell, Caffe: Convolutional architecture for fast feature embedding, arXiv preprint arXiv:1408.5093, 2014. Available: https://arxiv.org/abs/1408.5093.