Вестник КРАУНЦ. Физ.-мат. науки. 2022.Т. 39. №2. C. 136-149. ISSN 2079-6641
УДК 519.7
Научная статья
Алгоритм кластеризации на основе разбиения пространства признаков
М. А. Казаков
Институт прикладной математики и автоматизации КБНЦ РАН 360000, КБР, г. Нальчик, ул. Шоратнова 89 А
E-mail: kasakow.muchamed@gmail.com
В данной статье предлагается новый способ робастной кластеризации на основе рекурсивного разбиения пространства признаков и анализа плотностей. Представлен алгоритм робастной кластеризации линейно неразделимых точек, его программная реализация, а также результаты тестирования на классических
наборах данных.
Ключевые слова: кластеризация, робастная кластеризация, машинное обучение.
DOI: 10.26117/2079-6641-2022-39-2-136-149
Поступила в редакцию: 05.07.2022
В окончательном варианте: 22.08.2022
Для цитирования. Казаков М. А. Алгоритм кластеризации на основе разбиения пространства признаков // Вестник КРАУНЦ. Физ.-мат. науки. 2022. Т. 39. № 2. C. 136-149. DOI: 10.26117/2079-6641-2022-39-2-136-149
Контент публикуется на условиях лицензии Creative Commons Attribution 4.0 International (https://creativecommons.org/licenses/by/4.0/deed.ru)
© Казаков М. А., 2022
Конкурирующие интересы. Конфликтов интересов в отношении авторства и публикации нет.
Авторский вклад и ответственность. Автор участвовал в написании статьи и полностью несет ответственность за предоставление окончательной версии статьи в печать.
Благодарность. Также авторы могут выразить благодарности своим коллегам за обсуждение и подготовку статьи к печати, а также рецензентам за ценные замечания.
Список литературы
- Géron A. Hands-on machine learning with Scikit-Learn, Keras, and TensorFlow: Concepts, tools, and techniques to build intelligent systems.. O’Reilly Media, Inc.: 2st edition, 2019. 856 pp.
- Raschka S. Python machine learning. Packt publishing ltd: 1st edition, 2015. 456 pp.
- Müller A. C., Guido S. Introduction to machine learning with Python: a guide for data scientists. O’Reilly Media: 1st edition, 2016. 398 pp.
- MacQueen J.BSome Methods for classification and Analysis of Multivariate Observations, Proceedings of 5th Berkeley Symposium on Mathematical Statistics and Probability, 1967. vol. 1, pp. 281–297.
- Lloyd S., Stuart P. Least square quantization in PCM, IEEE Transactions on Information Theory, 1982. vol. 28, no. 2, pp. 129–137.
- Sibson R. SLINK: an optimally efficient algorithm for the single-link cluster method, The Computer Journal. British Computer Society, 1973. vol. 16, no. 1, pp. 30–34.
- Defays D. An efficient algorithm for a complete link method, The Computer Journal. British Computer Society, 1977. vol. 20, no. 4, pp. 364–366.
- Ester M., Kriegel H.P., Sander J., Xu X.A density-based algorithm for discovering clusters in large spatial databases with noise,KDD., 1996. vol. 96, no. 34, pp. 226–231.
- Sander J. et al. Density-based clustering in spatial databases: The algorithm gdbscan and its applications, Data mining and knowledge discovery, 1998. vol. 2, no. 2, pp. 169–194.
- Shibzukhov Z. M.On the Principle of Empirical Risk Minimization Based on Averaging Aggregation Functions, Doklady Mathematics, 2017. vol. 96, no. 2, pp. 494–497 DOI: 10.1134/S106456241705026X.
- Shibzukhov Z. M.On a Robust Approach to Search for Cluster Centers,Automation and Remote Control, 2021. vol. 82, no. 10, pp. 1742–1751 DOI: 10.1134/S0005117921100118.
- Shibzukhov Z. M. Machine Learning Based on the Principle of Minimizing Robust Mean Estimates, Brain-Inspired Cognitive Architectures for Artificial Intelligence: BICA*AI 2020, 2020. vol. 1310, pp. 472–477 DOI: 10.1007/978-3-030-65596-956.
- Kharinov M. V. Superpixel Clustering, International Russian Automation Conference (RusAutoCon). – IEEE, 2021, pp. 303–308 DOI: 10.1109/RusAutoCon52004.2021.9537461.
- Huang D., Wang C. D., Lai J. H. Locally weighted ensemble clustering, IEEE transactions on cybernetics, 2017. vol. 48, no. 5, pp. 1460–1473 DOI: 10.1109/TCYB.2017.2702343.
- Debnath T., Song M. Fast Optimal Circular Clustering and Applications on Round Genomes, IEEE/ACM Transactions on Computational Biology and Bioinformatics, 2021. vol. 18, no. 6, pp. 2061–2071 DOI: 10.1109/TCBB.2021.3077573.
- Nock R., Nielsen F.On Weighting Clustering, IEEE Transactions on Pattern Analysis and Machine Intelligence, 2006. vol. 28, no. 8, pp. 1223–1235 DOI: 10.1109/TPAMI.2006.168.
- Kaur P. J. et al. Cluster quality based performance evaluation of hierarchical clustering method, 1st International Conference on Next Generation Computing Technologies (NGCT). – IEEE, 2015, pp. 649–653 DOI: 10.1109/NGCT.2015.7375201.
- Flach P. Machine learning: the art and science of algorithms that make sense of data. Cambridge University Press: 1st edition, 2012. 416 pp.
- Shu M. L. et al. Planning the obstacle-avoidance trajectory of mobile anchor in 3D sensor networks, Science China Information Sciences, 2015. vol. 58, no. 10, pp. 1–10 DOI: 10.1007/s11432-015-5354-2.
- Ankerst M., Breunig M., Kriegel H.P., Sander J. OPTICS: Ordering Points To Identify the Clustering Structure, ACM SIGMOD international conference on Management of data. ACM Press., 1999. vol. 28, no. 2, pp. 49–60 DOI: 10.1145/304181.304187.
- Achtert, E., Böhm, C., Kröger, P. DeLi-Clu: Boosting Robustness, Completeness, Usability, and Efficiency of Hierarchical Clustering by a Closest Pair Ranking,Advances in Knowledge Discovery and Data Mining. Lecture Notes in Computer Science, 2006. vol. 3918, pp. 119–128 DOI: 10.1007/1173113916.
Казаков Мухамед Анатольевич – младший научный сотрудник отдела Нейроинформатики и машинного обучения, Институт прикладной математики и автоматизации, Кабардино-Балкарская Республика, г. Нальчик, Россия, ORCID 0000-0002-5112-5079.