МЕТОДИ АВТОМАТИЧНОГО ВИЯВЛЕННЯ СТОРОННІХ ОБ’ЄКТІВ У ВІДЕОСЦЕНІ З ДИНАМІЧНИМИ ПЕРЕШКОДАМИ
DOI:
https://doi.org/10.15407/scine21.05.062Ключові слова:
Ключові слова: відеосистеми, системи відеоспостереження, відеофрагмент, відеопослідовність.Анотація
Вступ. Виявлення сторонніх об’єктів та залишених предметів часто застосовується у системах відеоспостереження, встановлених у місцях масового скупчення людей для запобігання терористичним актам або для їхнього розслідування.
Проблематика. Системи відеоспостереження генерують величезну кількість інформації, яка має бути відфільтрована для виявлення потенційно загрозливих ситуацій, і цілком логічно перекласти частину роботи людини-оператора на системи автоматичного аналізу інформації (відеоаналітики) від групи відеокамер, звільнивши таким чином людину від досить монотонної роботи. Оскільки оператор може не відслідкувати всі зміни у відеосцені, виникає потреба створення методів і алгоритмів автоматичного аналізу відеоінформації для спрощення роботи людиниоператора.
Мета. Розробка методів автоматичного виявлення сторонніх об’єктів у відеосцені з динамічними перешкодами для запобігання можливим правопорушенням або терористичним актам і розкриття цих подій в установах та підприємствах країни.
Матеріали й методи. Для експериментальних досліджень використано набір даних PETS 2006 (сім сценаріїв із зростаючою складністю сцени), спеціально створений для тестування алгоритмів детектування залишених та зниклих об’єктів у громадських місцях.
Результати. Розроблено метод, не критичний до зміни освітлення і незначного зсуву зображень, та проведено експериментальні дослідження щодо автоматичного виявлення сторонніх об’єктів у відеосцені з динамічними перешкодами. Відповідний алгоритм показав стійку роботу навіть за мінімальної кількості характеристик елементів на відеофрагментах із PETS 2006.
Висновки. Використання запропонованого методу дозволить системі відеоспостереження працювати в режимі реального часу, звільняючи оператора від виснажливого нагляду за відеосценою та сповіщаючи про виявлення залишених предметів, що можуть нести потенційну небезпеку.
Завантаження
Посилання
Patryk, S., Vun, Yu. V., Komly, R. (2011). Performance in dicators for videotracking. IETE Technical review, 28(6), 493. https://doi.org/10.4103/0256-4602.90759 . URL: https://www.researchgate.net/publication/272646487_Performance_ Evaluation_Metrics_for_Video_Tracking (Last accessed: 20.06.2023).
Makfarlein, N. Dzh. B., Shofyld, K. P. (1995). Segmentation and tracking of pigletsinimages. Machine vision and applications, 8, 187—193. URL: https://link.springer.com/article/10.1007/BF01215814 (Last accessed: 20.06.2023).
Kukkyara, R., Hrana, K., Praty, A., Vetstsany, R (2005). Probabilistic pose classification for analyzing human behavior, transactions in systems. IEEE Transactionson Systems, Man, and Cybernetics, 35(1), 42—54. https://doi.org/10.1109/TSMCA.2004.838501
Huwer, S., Niemann, H. (2000). Adaptive change detection for real-time surveillanceapplications. Proceedings Third IEEE International Workshop on Visual Surveillance, 37—46. URL: https://ieeexplore.ieee.org/document/856856 (Last accessed: 20.06.2023). https://doi.org/10.1109/VS.2000.856856
Khalevy, H., Vainsholl, D. (1999). Disturbance motion: detecting and tracking non-rigid multi-body motion. Machine Vision and Applications, 11, 122—137. URL: https://link.springer.com/article/10.1007/s001380050096 (Last accessed: 20.06.2023).
Mokhamad, A. A. Kh., Osman, M. (2013). Adaptive median filter background subtraction technique using fuzzy logic. International Conference on Computer, Electrical and Electronic Engineering (ICCEEE) (Khartoum, Sudan, 2013), 115—120. https://doi.org/10.1109/ICCEEE.2013.6633917
Haritaoglu, I., Harwood, D., Davis, L. S. (2000). W4: Real-time monitoring of people and their actions, pattern analysis and machine intelligence. IEEE Trans. on Pattern Analysis and Machine Intelligence, 8(22), 809—830. URL: https://3dvar. com/Haritaoglu2000W4.pdf (Last accessed: 20.06.2023). https://doi.org/10.1109/34.868683
Boult, T., Micheals, R. J., Gao, X., Eckmann, M. (2001). Into the woods: Visual surveillance of non-cooperative and camo ufl aged targets in compex outdoor settings. Proceedings of the IEEE, 89(10), 1382—1402. https://doi.org/10.1109/5.959337
Abbottand, R., Williams, L. (2009). Multiple target tracking with lazy background subtraction and connected components analysis. Machine Vision and Applications, 20, 93—101. https://doi.org/10.1007/s00138-007-0109-8
Harville, M. (2002). A framework for high-level feedback to adaptive, per-pixel, mixture-of-Gaussian background models. In: Heyden, A., Sparr, G., Nielsen, M., Johansen, P. (Eds.) Computer Vision — ECCV 2002. Lecture Notes in Computer Science, 2352, 28—31. Springer, Berlin, Heidelberg. https://doi.org/10.1007/3-540-47977-5_36
Wang, J. X., Bebis, G. N., Miller, R. (2006). Robust video-based surveillance by integrating target detection with tra cking. IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops (CVPRW) (New York, NY, USA, 2006), 137—137. https://doi.org/10.1109/CVPRW.2006.180
Venetianer, P., Zhang, Z., Yin, W., Lipton, A. (2007). Stationary target detection using the object video surveillance system. Advanced Video and Signal-based Surveillance, 2007. https://doi.org/10.1109/AVSS.2007.4425317
Yaoand, J., Odobez, J.-M. (2007). Multi-Layer Background Subtraction Based on Color and Texture. IEEE Conference on Computer Vision and Pattern Recognition (Minneapolis, MN, USA, 2007), 1—8. https://doi.org/10.1109/CVPR. 2007.383497
Taycher, L., Fisher, J. W., Darrell, T. (2005). Incorporating Object Tracking Feedback into Background Maintenance Framework, (2005 Seventh IEEE Workshops on Applications of Computer Vision (WACV/MOTION’05), Volume 1 (Breckenridge, CO, USA, 2005), 120—125. https://doi.org/10.1109/ACVMOT.2005.63
Hlumov, N. Y., Miasnykov, V. V., Serheev V. V. (2010). Detection and recognition of objects in images: electron. Textbook al lowance. Samara. https://repo.ssau.ru/handle/Uchebnye-posobiya/Obnaruzhenie-i-raspoznavanie-obektov-naizobrazheniyah-Elektronnyi-resurs-elektron-ucheb-posobie-54634 (Last accessed: 20.06.2023).
Sabelnikov, P., Sabelnikov, Yu. (2023). Search for identical points in the inter-pixel space of videoimages. Artificial Intelligence, 28(1), 155—162. https://doi.org/10.15407/jai2023.01.155
Sabelnikov, P. Iu., Sabelnikov, Yu. A., Syniakov, M. M. (2023). Determining the orientation of circularareas in video images. Artificial Intelligence, 28(3), 131—138. https://doi.org/10.15407/jai2023.03.131 [in Ukrainian].
YOLOv4: Highspeed and accurate object detection. URL: https://docs.ultralytics.com/ru/models/yolov4/ (Last accessed: 12.06.2023).
Tensor Flow. URL: https://uk.wikipedia.org/wiki/TensorFlow (Last accessed: 23.12.2021).
Dataset PETS 2006. URL: https://www.researchgate.net/figure/PETS-2006-Dataset-Sequence-1-a-original-image-bbackground-patches-that-can-not-be_fig3_236630140 (Last accessed: 23.12.2021).
##submission.downloads##
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія
Авторське право (c) 2025 Положення про авторські права Автори, які публікуються у журналі «Наука та інновації», погоджуються на такі умови: Автори зберігають авторські права та надають журналу право першої публікації. Автори можуть вступати в окремі, додаткові договірні угоди для не ексклюзивного розповсюдження надрукованої у журналі «Наука та інновації» версії своєї роботи (статті) (наприклад, розмістити її в інституційному сховищі або опублікувати в своїй книзі), із підтвердженням її первинної публікації у журналі «Наука та інновації». Авторам дозволено розміщувати свою роботу в Інтернеті (наприклад, в інституційних сховищах або на їх веб-сайті).

Ця робота ліцензується відповідно до Creative Commons Attribution-NonCommercial 4.0 International License.
