ПОРІВНЯЛЬНИЙ АНАЛІЗ ЗОБРАЖЕНЬ ЗА ДОПОМОГОЮ ГЛИБИННИХ НЕЙРОННИХ МЕРЕЖ

Основний зміст сторінки статті

Vadym Pavlovych Drozd

Анотація

Побудова стабільної системи для виявлення коефіцієнту подібності зображень є досить складною задачею. Насамперед необхідно враховувати відмінності між різними класами об’єктів, що можуть бути на зображенні, а також відмінності між внутрішньокласовими представниками. В даній роботі розглянуто підхід до навчання системи порівняння зображень, що використовує техніки глибинного навчання, а саме об’єднання усіх етапів порівняння в одну глибинну нейронну мережу. Даний підхід дозволяє побудувати систему, що має набагато більшу навчальну ємність в порівнянні з іншими системами. Експериментальна перевірка системи проведена на тестових зображеннях, що представляють собою реальні фото одягу. Результати підтверджують, що підхід об’єднання системи в одну глибинну нейронну мережу дозволяє підвищити якість в порівнянні з іншими підходами, а також дозволяє зменшити розмір отриманого вектору ознак.

Бібл. 15, рис. 4, табл. 2.

Блок інформації про статтю

Як цитувати
Drozd, V. P. (2017). ПОРІВНЯЛЬНИЙ АНАЛІЗ ЗОБРАЖЕНЬ ЗА ДОПОМОГОЮ ГЛИБИННИХ НЕЙРОННИХ МЕРЕЖ. Електроніка та Зв’язок, 22(1), 75–81. https://doi.org/10.20535/2312-1807.2017.22.1.80745
Розділ
Інформаційні та телекомунікаційні системи та технології, захист інформації
Біографія автора

Vadym Pavlovych Drozd, Національний технічний університет України «Київський політехнічний інститут

Факультет електроніки, кафедра КЕОА, аспірант

Посилання

Structure from motion. [Online]. Available: https://en.wikipedia.org/wiki/Structure_from_motion.

R. Hadsell, S. Chopra, and Y. LeCun. Dimensionality reduction by learning an invariant mapping. In CVPR, volume 2, pages 1735–1742. IEEE, 2006. DOI: 10.1109/CVPR.2006.100..

G. W. Taylor, I. Spiro, C. Bregler, and R. Fergus. Learning invariance through imitation. In CVPR, pages 2729–2736. IEEE, 2011. DOI: 10.1109/CVPR.2011.5995538

D. G. Lowe. Object recognition from local scale-invariant features. In ICCV, volume 2, pages 1150–1157. IEEE, 1999. DOI: 10.1109/ICCV.1999.790410

N. Dalal and B. Triggs. Histograms of Oriented Gradients for Human Detection. In CVPR, pages 886–893. IEEE, 2005. DOI: 10.1109/CVPR.2005.177.

Y.-L. Boureau, F. Bach, Y. LeCun, and J. Ponce. Learning mid-level features for recognition. In CVPR, pages 2559–2566. IEEE, 2010. DOI: 10.1109/CVPR.2010.5539963.

A. Krizhevsky, I. Sutskever, and G. Hinton. Imagenet classification with deep convolutional neural networks. In NIPS, pages 1106–1114, 2012.

Tuytelaars, T and Mikolajczyk, K (2008) Local invariant feature detectors: A survey Foundations and Trends in Computer Graphics and Vision, 3 (3). pp. 177-280.

E. Tola, V.Lepetit, and P. Fua. A Fast Local Descriptor for Dense Matching. In Proceedings of Computer Vision and Pattern Recognition, Alaska, USA, 2008. DOI: 10.1109/CVPR.2008.4587673.

V. Athitsos, J. Alon, S. Sclaroff, and G. Kollios. Boostmap: A method for efficient approximate similarity rankings. In IEEE Conf. on Computer Vision and Pattern Recognition, Madison, WI, June 2004. DOI: 10.1109/CVPR.2004.1315173.

A. S. Razavian, H. Azizpour, J. Sullivan, and S. Carlsson. CNN features off-the-shelf: An astounding baseline for recognition. In IEEE Conference on Computer Vision and Pattern Recognition, CVPR Workshops 2014, Columbus, OH, USA, June 23-28, 2014, pages 512–519, 2014. DOI: 10.1109/CVPRW.2014.131.

P. Fischer, A. Dosovitskiy, and T. Brox. Descriptor matching with convolutional neural networks: a comparison to SIFT, arXiv preprint arXiv:1405.5769, 2014: Available: https://arxiv.org/abs/1405.5769.

C. Szegedy, W. Liu, Y. Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, and A. Rabinovich, Going deeper with convolutions, arXiv preprint arXiv:1409.4842, 2014. Available: https://arxiv.org/abs/1409.4842.

Hlybynne navchannia [Deep Learning]. Available: https://uk.wikipedia.org/wiki/Глибинне_навчання.

Y. Jia, E. Shelhamer, J. Donahue, S. Karayev, J. Long, R. Girshick, S. Guadarrama, and T. Darrell, Caffe: Convolutional architecture for fast feature embedding, arXiv preprint arXiv:1408.5093, 2014. Available: https://arxiv.org/abs/1408.5093.