Вісник Національного технічного університету «ХПІ». Серія: Системний аналіз, управління та інформаційні технології
Постійне посилання на розділhttps://repository.kpi.kharkov.ua/handle/KhPI-Press/67239
Офіційний сайт http://samit.khpi.edu.ua/
Рецензоване наукове видання відкритого доступу, яке публікує нові наукові результати в області системного аналізу та управління складними системами, отримані на основі сучасних прикладних математичних методів і прогресивних інформаційних технологій. Публікуються роботи, пов'язані зі штучним інтелектом, аналізом великих даних, сучасними методами високопродуктивних обчислень у розподілених системах підтримки прийняття рішень.
Рік заснування: 1961. Періодичність: 2 рази на рік. ISSN: 2079-0023 (Print), ISSN: 2410-2857 (Online)
Новини
«Вісник Національного технічного університету "ХПІ". Серія: Системний аналіз, управління та інформаційні технології» внесено до категорії Б «Переліку наукових фахових видань України, в яких можуть публікуватися результати дисертаційних робіт на здобуття наукових ступенів доктора наук, кандидата наук та ступеня доктора філософії»
Переглянути
Документ Adaptation of LambdaMART model to semi-supervised learning(Національний технічний університет "Харківський політехнічний інститут", 2023) Yamkovyi, Klym SerhiyovychThe problem of information searching is very common in the age of the internet and Big Data. Usually, there are huge collections of documents and only multiple percent of them are relevant. In this setup brute-force methods are useless. Search engines help to solve this problem optimally. Most engines are based on learning to rank methods, i.e. first of all algorithm produce scores for documents based on they feature and after that sorts them according to the score in an appropriate order. There are a lot of algorithms in this area, but one of the most fastest and a robust algorithm for ranking is LambdaMART. This algorithm is based on boosting and developed only for supervised learning, where each document in the collection has a rank estimated by an expert. But usually, in this area, collections contain tons of documents and their annotation requires a lot of resources like time, money, experts, etc. In this case, semi-supervised learning is a powerful approach. Semi-supervised learning is an approach to machine learning that combines a small amount of labeled data with a large amount of unlabeled data during training. Unlabeled data, when used in combination with a small quantity of labeled data, can produce significant improvement in learning accuracy. This paper is dedicated to the adaptation of LambdaMART to semi-supervised learning. The author proposes to add different weights for labeled and unlabeled data during the training procedure to achieve higher robustness and accuracy. The proposed algorithm was implemented using Python programming language and LightGBM framework that already has supervised the implementation of LambdaMART. For testing purposes, multiple datasets were used. One synthetic 2D dataset for a visual explanation of results and two real-world datasets MSLR-WEB10K by Microsoft and Yahoo LTRC.Публікація Algorithm and software of medical personnel selection system(Національний технічний університет "Харківський політехнічний інститут", 2023) Yamburenko, Viktor Viktorovych; Liutenko, Iryna Viktorivna; Kopp, Andrii Mykhailovych; Holovnia, Dmytro MykolaiovychThere is a lot of routine work in any organization, including in recruitment agencies. Effective management organization and automation of activities of employees of recruiting agencies is not an easy task. The system should automate the routine actions of workers of recruiting agencies and be convenient for their clients. This paper proposes an approach to automating the selection of necessary medical staff. Not all information systems used by recruiting agencies can compare candidates and generate results that include several of the best candidates. Based on the analysis of the subject area, groups of parameters that significantly affect the choice of medical personnel were determined. The proposed approach is to analyze the request from the client, and then in the system find requests of other clients similar to it in terms of parameters, for which a candidate has already been found. The next step is to take the profiles of healthcare professionals that have been suggested for these requests (they act as benchmarks) to further compare them with existing candidates. Each employee profile parameter has its own similarity function. Available candidates will receive scores and will be ranked. We also additionally adjust the assessment by comparing candidates with the current request. Software was developed to automate the selection of medical personnel. For its implementation, a three-level client-server architecture is proposed. MVC (Model View Controller) architecture was chosen for the server part. The Single Page Application architectural template is used for the client part. The server part is divided into three layers, which further demarcate and structure the responsibilities of the system components. .NET technologies are used to implement business logic. SQL Server is used for the server and database provider. The use of the software implementation of the developed system demonstrated quite good results. The average time for selecting the 10 best candidates out of 500 is 0.4 seconds, and the processing of only 1 resume by a person takes several minutes.Публікація An algorithm for NLP-based similarity measurement of activity labels in a database of business process models(Національний технічний університет "Харківський політехнічний інститут", 2023) Kopp, Andrii Mykhailovych; Orlovskyi, Dmytro LeonidovychBusiness process modeling is an important part of organizational management since it enables companies to obtain insights into their operational workflows and find opportunities for development. However, evaluating and quantifying the similarity of multiple business process models can be difficult because these models frequently differ greatly in terms of structure and nomenclature. This study offers an approach that uses natural language processing techniques to evaluate the similarity of business process models in order to address this issue. The algorithm uses the activity labels given in the business process models as input to produce textual descriptions of the associated business processes. The algorithm includes various preprocessing stages to guarantee that the textual descriptions are correct and consistent. First, single words are retrieved and transformed to lower case from the resulting textual descriptions. After that, all non-alphabetic and stop words are removed from the retrieved words. The remaining words are then stemmed, which includes reducing them to their base form. The algorithm evaluates the similarity of distinct business process models using similarity measures, including Jaccard, Sorensen – Dice, overlap, and simple matching coefficients, after the textual descriptions have been prepared and preprocessed. These metrics provide a more detailed understanding of the similarities and differences across various business process models, which can then be used to influence decision-making and business process improvement initiatives. The software implementation of the proposed algorithm demonstrates its usage for similarity measurement in a database of business process models. Experiments show that the developed algorithm is 31% faster than a search based on the SQL LIKE clause and allows finding 18% more similar models in the business process model database.Документ Application of bayesian regularization for improving the quality of electrical energy in the electrical supply system(Національний технічний університет "Харківський політехнічний інститут", 2023) Yagup, Kateryna Valeriivna; Yagup, Valery GryogorovychThe possibility of using neural networks in the field of the energy coefficients correction of a power supply system with uneven load in phases is being studied. This need is justified by the fact, that the calculation of the necessary parameters of the symmetry-compensating device was previously based on the Nelder – Mead search optimization method. Search optimization performing is computationally expensive, takes long computation times, and may calculate anomalous values. The article develops the idea of using technology for predicting the parameters of a symmetry-compensating device, based on neural network modeling using Bayesian regularization. For a given set of initial data, the best selected configuration turned out to be a neural network of two layers, implemented in the MATLAB package using the machine learning tool Neural Network Toolbox. The network input parameters are a set of tuples, consisting of load values in each of the three phases of the power supply system, which are resistive-inductive in nature. There are six input quantities in total (load resistance and inductance values in each of the three phases) and all their values are different, which causes current asymmetry in the network and reactive power. The target matrix is formed from tuples, consisting of three values, which are the parameters of the symmetrical compensating device, calculated by the optimization method, in such a way as to compensate reactive power and to balance currents in the network. The number of data tuples, required to train a neural network was determined empirically. During the experiments, the optimal number of neurons in the neural network was also revealed. The use of the generated neural network to calculate the parameters of the symmetry-compensating device determined approximate solutions is comparable in accuracy to the values, found by optimization methods. With the help of the generated neural system, adequate quasi-solutions for calculating the parameters of the symmetry-compensating device were determined, which, in case of calculation, using the optimization method, led to anomalous values, that didn’t optimize the energy coefficients of the power supply system to the required extent. Also, such neuropredictions protect the system from receiving excessive high parameters of symmetry compensating device, which can be obtained with an optimization approach.Публікація Blockchain platform selection and software development for decentralized exchange of business process models(Національний технічний університет "Харківський політехнічний інститут", 2023) Kopp, Andrii Mykhailovych; Orlovskyi, Dmytro Leonidovych; Olkhovyi, Oleksii MykhailovychModern organizations employing the Business Process Management (BPM) approach typically handle collections of hundreds or even thousands of business process models. Business process modeling stands as the central technology within the entire BPM methodology. In line with the BPM lifecycle, these models visually represent current organizational activities that necessitate improvement using various diagramming notations. These graphical business process models can subsequently be employed to analyze ongoing activities in the enterprise, identifying potential drawbacks or "weak spots" that hinder the company’s performance. Through business process models, organizations can modify the "virtual twins" of their organizational workflows, conduct simulations, and make informed decisions for business process improvement. Thus, business process models constitute the most valuable assets of the organization, conveying knowledge about ongoing activities and potentially encapsulating the best organizational or industry practices. The implementation of a centralized database for business process models can significantly benefit the entire organization, enhancing the efficiency of knowledge sharing and accumulation. However, centralized business process model repositories prove less efficient for inter-organizational knowledge exchange. Additionally, most business process models require significant person-hours for development and cannot be shared freely with competitors. The exchange of business process models should adhere to established mechanisms for managing valuable digital assets. Presently, Distributed Ledger Technologies (DLT), especially Blockchain, have gained enormous popularity. Therefore, we can employ the principles of Blockchain technology and the cryptocurrency industry to create software for the Decentralized Exchange (DEX) of business process models. This study explores the selection of a DLT platform and the development of software for the decentralized exchange of business process models, utilizing asset tokenization and smart contract technologies.Документ Efficiency substantiation for a synthetical method of constructing a multivariate polynomial regression given by a redundant representation(Національний технічний університет "Харківський політехнічний інститут", 2023) Pavlov, Alexander Anatolievich; Holovchenko, Maxim Nikolaevich; Drozd, Valeriia ValeriivnaIn recent years, the authors in their publications have developed two different approaches to the construction of a multivariate polynomial (in particular, linear) regressions given by a redundant representation. The first approach allowed us to reduce estimation of coefficients for nonlinear terms of a multivariate polynomial regression to construction of a sequence of univariate polynomial regressions and solution of corresponding nondegenerate systems of linear equations. The second approach was implemented using an example of a multivariate linear regression given by a redundant representation and led to the creation of a method the authors called a modified group method of data handling (GMDH), as it is a modification of the well-known heuristic self-organization method of GMDH (the author of GMDH is an Academician of the National Academy of Sciences of Ukraine O. G. Ivakhnenko). The modification takes into account that giving a multivariate linear regression by redundant representation allows for construction of a set of partial representations, one of which has the structure of the desired regression, to use not a multilevel selection algorithm, but an efficient algorithm for splitting the coefficients of the multivariate linear regression into two classes. As in the classic GMDH, the solution is found using a test sequence of data. This method is easily extended to the case of a multivariate polynomial regression since the unknown coefficients appear in the multivariate polynomial regression in a linear way. Each of the two approaches has its advantages and disadvantages. The obvious next step is to combine both approaches into one. This has led to the creation of a synthetic method that implements the advantages of both approaches, partially compensating for their disadvantages. This paper presents the aggregated algorithmic structure of the synthetic method, the theoretical properties of partial cases and, as a result, the justification of its overall efficiency.Документ Examining software quality concept: business analysis perspective(Національний технічний університет "Харківський політехнічний інститут", 2023) Gobov, Denys Andriyovych; Zuieva, Oleksandra ValerivnaSoftware quality is a critical aspect of software development that significantly impacts business performance and customer satisfaction. However, defining software quality can be challenging, as different sources provide various definitions and perspectives. The article presents a literature review of software quality, acknowledging an ongoing debate over the years regarding the definition of software quality and the methods used for its assessment. Among all the different ideas about software quality, the article highlights key concepts that are crucial in understanding software quality: meeting requirements, satisfying users, using software features, and spotting defects. The article also checks out international standards like ISO/IEC 25010:2011 and ISO/IEC 5055:2021, introducing terms such as "Quality in use" and "Structural Quality." Unveiling a tripartite perspective elucidated in international standards—internal quality, external quality, and quality in use - the article underscores the intricate interplay between subjectivity and objectivity. The subjective dimension, influenced by user perception and contextual factors, is juxtaposed with more objective criteria such as conformance to requirements and the absence of defects. The standards provide helpful perspectives, but the human side of things, like user feelings and specific contexts, makes finding a universal definition tricky. The pivotal role of business analysis and requirements engineering in ensuring software quality is underscored. Business requirements, stakeholder needs, and the quality of functional and non-functional requirements emerge as integral components. The article argues that software quality is intricately tied to the quality of its requirements, presenting a dual perspective: compliance with quality criteria and alignment with stakeholders' expectations and business goals. Practical software quality assessment is built upon the foundational understanding of contextual nuances, user needs, and operational conditions, all discerned through business analysis.Документ Method of converting the monolithic architecture of a Front-End application to microfrontends(Національний технічний університет "Харківський політехнічний інститут", 2023) Nikulina, Olena Mykolaivna; Khatsko, Kyrylo OlexandrovychWeb systems have existed for a long time and quite a lot of them have been created. Modern development uses new microservice architectural to improve performance, portability, and other important characteristics. This necessitates the transformation of legacy systems from a monolithic architecture to a microservices one. Such a process is complex and costly, so improving the methods for converting old systems to a new platform is relevant. This research aims to develop a method of applying microfrontends approach for monolithic single page applications (SPA). The article proposes a method of transforming the software system architecture from monolithic to microservice architecture (MSA). Since the client part of the system is considered, the term microfrontend is proposed, as an analog of microservers in the server part of the software systems. A brief review of existing architecture reengineering research is made and the advantages of a microservice approach are identified. The proposed three-stage method differs from the methods by the selection of an additional stage of conversion, which allows to gently change the connections between parts of the monolithic application, which were implemented in the initial monolithic architecture. The first stage is reverse engineering, it is proposed to shift the focus from the search for outdated code to the functional analysis of the program as such. The second stage, a transition to a modular architecture with the allocation of functionality into separate modules is proposed. At the end of the third stage, we have several separate programs (microinterfaces) that are connected to the main program. An experiment with a typical external SPA demonstrates the operation of the proposed algorithm. The system obtained as a result of the transformation is compared with the original one according to the following measurable parameters: production builds building time, size of the main bundle, and first page average load time. All comparisons showed the advantages of the system obtained as a result of the conversion. As a result, the architecture transformation algorithm allows you to obtain a guaranteed better result, taking into account the limitations of the interface SPA, which were not considered by the authors of previous articles.Документ Methods and means to improve the efficiency of network traffic security monitoring based on artificial intelligence(Національний технічний університет "Харківський політехнічний інститут", 2023) Dremov, Artem KyrylovychThis paper aims to provide a solution for malicious network traffic detection and categorization. Remote attacks on computer systems are becoming more common and more dangerous nowadays. This is due to several factors, some of which are as follows: first of all, the usage of computer networks and network infrastructure overall is on the rise, with tools such as messengers, email, and so on. Second, alongside increased usage, the amount of sensitive information being transmitted over networks has also grown. Third, the usage of computer networks for complex systems, such as grid and cloud computing, as well as IoT and "smart" locations (e.g., "smart city") has also seen an increase. Detecting malicious network traffic is the first step in defending against a remote attack. Historically, this was handled by a variety of algorithms, including machine learning algorithms such as clustering. However, these algorithms require a large amount of sample data to be effective against a given attack. This means that defending against zero‑day attacks or attacks with high variance in input data proves difficult for such algorithms. In this paper, we propose a semi‑supervised generative adversarial network (GAN) to train a discriminator model to categorize malicious traffic as well as identify malicious and non‑malicious traffic. The proposed solution consists of a GAN generator that creates tabular data representing network traffic from a remote attack and a classifier deep neural network for said traffic. The main goal is to achieve accurate categorization of malicious traffic with a few labeled examples. This can also, in theory, improve classification accuracy compared to fully supervised models. It may also improve the model’s performance against completely new types of attacks. The resulting model shows a prediction accuracy of 91 %, which is lower than a conventional deep learning model; however, this accuracy is achieved with a small sample of data (under 1000 labeled examples). As such, the results of this research may be used to improve computer system security, for example, by using dynamic firewall rule adjustments based on the results of incoming traffic classification. The proposed model was implemented and tested in the Python programming language and the TensorFlow framework. The dataset used for testing is the NSL‑KDD dataset.Документ Parsimonious machine learning models in requirements elicitation techniques selection(Національний технічний університет "Харківський політехнічний інститут", 2023) Solovei, Olga Leonidivna; Gobov, Denys AndriyovychThe subject of research in the article is machine learning algorithms used for requirement elicitation technique selection. The goal of the work is to build effective parsimonious machine learning models to predict the using particular elicitation techniques in IT projects that allow using as few predictor variables as possible without a significant deterioration in the prediction quality. The following tasks are solved in the article: design an algorithm to build parsimonious machine learning candidate models for requirement elicitation technique selection based on gathered information on practitioners' experience, assess parsimonious machine learning model accuracy, and design an algorithm for the best candidate model selection. The following methods are used: algorithm theory, statistics theory, sampling techniques, data modeling theory, and science experiments. The following results were obtained: 1) parsimonious machine learning candidate models were built for the requirement elicitation technique selection. They included less number of features that helps in the future to avoid overfitting problems associated with the best-fit models; 2) according to the proposed algorithm for best candidate selection – a single parsimonious model with satisfied performance was chosen. Conclusion: An algorithm is proposed to build parsimonious candidate models for requirement elicitation technique selection that avoids the overfitting problem. The algorithm for the best candidate model selection identifies when a parsimonious model's performance is degraded and decides on the suitable model's selection. Both proposed algorithms were successfully tested with four datasets and can be proposed for their extensions to others.Документ Specification formalization of state charts for complex system management(Національний технічний університет "Харківський політехнічний інститут", 2023) Nikitin, Dmytro MykhailovychThis article presents a formalization approach for the requirements of object-oriented programs with state machines, using a spacecraft control system as a case study. It proposes a state pattern implementation, where each state is represented as a class with clearly defined responsibilities, and the transitions between states are controlled by the state objects themselves. Additionally, the application of model checking, theorem proving, and code generation techniques are discussed. The effectiveness of the proposed approach in ensuring compliance with the specified requirements is demonstrated, while also identifying potential drawbacks and limitations of the approach. The implementation is validated using a range of formal verification techniques, including model checking and theorem proving. The article also discusses how the approach can be extended and applied to other complex systems. Overall, the valuable insights into the formalization of requirements for object-oriented programs with state machines are provided, offering a practical and effective approach for verifying the correctness and completeness of such implementations. The results of this work have important implications for the development of safety-critical systems and can potentially improve the quality and reliability of software systems in various domains. By using mathematical models and rigorous formal methods, it is possible to detect and eliminate errors early in the development process, leading to higher confidence in the correctness of the final product. Future research in this area could explore the use of more advanced techniques, such as modeldriven development and automatic code synthesis, to further streamline the software development process. Additionally, the development of more efficient and user-friendly tools could make these techniques more accessible to a wider range of developers and organizations. Altogether, the combination of formal methods and software engineering has the potential to revolutionize the way software systems are designed, developed, and verified, leading to safer and more reliable software for critical applications.Документ The scientific basis, some results, and perspectives of modeling evolutionarily conditioned noogenesis of artificial creatures in virtual biocenoses.(Національний технічний університет "Харківський політехнічний інститут", 2023) Zachepylo, Mykhailo Oleksandrovych; Yushchenko, Oleksandr HeorhiiovychThis research aimed to gain a profound understanding of virtual biocenoses intricate digital ecosystems, with the goal of elucidating and replicating the emergence and evolution of intelligence in artificial creatures – referred to as noogenesis. A comprehensive analysis of existing studies within virtual biocenoses was undertaken to glean valuable insights into the complexities of modeling dynamic ecosystems where artificial agents engaged in intricate interactions. The pivotal role of neural networks in shaping the adaptive behaviors of artificial creatures within these environments was underscored. A meticulous investigation into neural networks' evolution methodologies revealed the evolution of their architecture complexity over time, culminating in the facilitation of flexible and intelligent behaviors. However, a lack of study existed in the domain of nurturing evolutionary-based communication and cooperation capabilities within virtual biocenoses. In response to this gap, a model was introduced and substantiated through simulation experiments. The simulation results vividly illustrated the model's remarkable capacity to engender adaptive creatures endowed with the capability to efficiently respond to dynamic environmental changes. These adaptive entities displayed efficient optimization of energy consumption and resource acquisition. Moreover, they manifested both intellectual and physical transformations attributed to the evolution and encoding principles inspired by the NeuroEvolution of Augmented Topologies. Significantly, it became apparent that the evolutionary processes intrinsic to the model were inextricably linked to the environment itself, thus harmonizing seamlessly with the overarching goal of this research. Future research directions in this field were outlined. These pathways provided a foundation for further exploration into the evolution of artificial creatures in virtual biocenoses and the emergence of advanced communication and cooperation capabilities. These advancements hold the potential to move artificial life and artificial intelligence to new levels of understanding and capability.Документ Using long short-term memory networks for natural language processing(Національний технічний університет "Харківський політехнічний інститут", 2023) Onyshchenko, Kostiantyn; Daniiel, YanaThe problem of emotion classification is a complex and non-trivial task of language interpretation due to the natural language structure and its dynamic nature. The significance of the study is in covering the important issue of automatic processing of client feedbacks, collecting opinions and trendcatching. In this work, a number of existing solutions for emotion classification problem were considered, having their shortcomings and advantages illustrated. The evaluation of performance of the considered models was conducted on emotion classification on four emotion classes, namely Happy, Sad, Angry and Others. The model for emotion classification in three-sentence conversations was proposed in this work. The model is based on smileys and word embeddings with domain specificity in state of art conversations on the Internet. The importance of taking into account the information extracted from smileys as an additional data source of emotional coloring is investigated. The model performance is evaluated and compared with language processing model BERT (Bidirectional Encoder Representations from Transformers). The proposed model achieved better performance at classifying emotions comparing to BERT (having F1 score as 78 versus 75). It should be noted, that further study should be performed to enhance the processing by the model of mixed reviews represented by emotion class Others. However, modern performance of models for language representation and understanding did not achieve the human performance. There is a variety of factors to consider when choosing the word embeddings and training methods to design the model architecture.Документ Using OBD-2 technology for vehicle diagnostic and using it in the information system(Національний технічний університет "Харківський політехнічний інститут", 2023) Rybitskyi, Oleksandr Maksymovych; Golian, Vira Volodymyrivna; Golian, Nataliia Viktorivna; Dudar, Zoia Volodymyrivna; Kalynychenko, Olga Viktorivna; Nikitin, Dmytro MykhailovychThis article considers the research of OBD-2 technology for interaction with on-board vehicle systems, the creation of a unified system that can work with different makes and models of cars. The history of OBD-2 technology, its development, existing standards and their implementation in modern cars is described. Basic diagnostic functions are described, with which you can get information about the car, as well as perform its settings and send various commands to it. In addition, the hardware part of the scanner, its technical features, nuances of interaction with it and the purpose of each of its pins are considered. Also reviewed couple models of scanners that can be used to develop this system. Conclusions are drawn on the practicability of their use, taking into account their capabilities. Existing software analogues, their main functions, advantages and disadvantages are considered. The general concept of interaction with the car via OBD-2, the interaction algorithm and step-by -step analysis of the interaction between the scanner and the car are also considered. The software part of the interaction between the car and the scanner, special codes used to send requests and responses, their further analysis and interpretation in a human-friendly form are considered. The possibilities for the unification of these codes for different car manufacturers and the common code base to create a universal system that will be suitable for different cars from different car manufacturers are highlighted. A model of the software system is proposed, which can embody a large set of useful functions for any motorist and will be compatible with a large number of modern cars equipped with universal diagnostic tools, while using an affordable scanner model without the use of expensive professional equipment.Документ Аналіз інформаційних технологій для дистанційної ідентифікації динамічних об'єктів(Національний технічний університет "Харківський політехнічний інститут", 2023) Нікуліна, Олена Миколаївна; Северин, Валерій Петрович; Кондратов, Олексій Михайлович; Рекова, Наталія ЮріївнаРозглянуто проблему ідентифікації динамічних об'єктів з використанням інформаційних технологій дистанційної ідентифікації. Зазначено, що ідентифікація рухомих об'єктів має важливе значення в різних сферах, включаючи автономні транспортні засоби, медичну діагностику та робототехніку. Мета статті полягає в аналізі різних інформаційних технологій виявлення об'єктів, які можуть бути використані в майбутніх дослідженнях з дистанційної ідентифікації. Проведено аналіз методів визначення швидкості як динамічного параметру, аналіз двокрокових та однокрокових методів віддаленої ідентифікації об’єктів, аналіз ранніх методів ідентифікації, а також аналіз методів покращення віддаленої ідентифікації об'єктів. Розглянуто кілька засобів визначення руху об’єктів, зокрема, пропорційно-інтегрально-диференціальний регулятор, метод блоку вирівнювання, фазова кореляція, алгоритми піксельної рекурсії та методи оптичного потоку Лукаса – Канаді, Хорна – Шунка, Фарнбека, густого оптичного потоку. Ці засоби можуть бути використані для ефективного визначення руху об'єктів та ідентифікації їхньої швидкості незалежно від розміру та положення об’єктів. Розглянуті двокрокві та однокрокові методи виявлення об’єктів: метод регіонів зі згортковими нейронними мережами, його покращення, мережі пулінгу просторової піраміди, метод "Ти дивишся лише один раз", однокроковий багаторамковий метод, мережі сітківки, кутова мережа, центральна мережа та трансформер виявлення, які використовують різні підходи для покращення продуктивності та точності виявлення об'єктів. Підкреслено необхідність використання методів згорткових нейронних мереж та мереж пулінгу просторової піраміди для ефективної ідентифікації об’єктів незалежно від їхнього розміру та положення. Пропонуються нові підходи, які дозволяють створювати представлення фіксованої довжини для обробки зображень та регіонів інтересу, а також методи Віоли - Джонса, гістограми орієнтованих градієнтів, моделі деформованих частин. Дослідження в області виявлення об’єктів сприяють розвитку інформаційних технологій та покращенню ефективності систем ідентифікації динамічних об’єктів. Шляхом огляду та аналізу різних методів надані рекомендації для дослідників і практиків, що працюють у галузі дистанційної ідентифікації динамічних об’єктів.Документ Вербальний опис технології планування підвищення якості підмножини процесів еталонної моделі зрілості SPICE(Національний технічний університет "Харківський політехнічний інститут", 2023) Годлевський, Михайло Дмитрович; Бурлаков, Георгій ОлександровичЗазначено, що для вирішення задачі розробки інформаційної технології планування підвищення рівня зрілості підмножини процесів еталонної моделі зрілості SPICE, попередньо це питання необхідно розглянути на вербальному рівні як технологію (послідовність етапів) реалізації поставленої проблеми. На першому етапі проведено формалізацію структури еталонної моделі SPICE, яка складається з множини окремих процесів. Ця множина представлена як ієрархічна структура: перший рівень – множина процесів і підпроцесів; другий рівень – множина груп процесів; третій рівень – множина категорій процесів. На другому етапі розглянуто метод оцінки рівня можливості окремого процесу/підпроцесу еталонної моделі зрілості SPICE, який наведено з погляду двох вимірів моделі SPICE: призначення процесів; атрибути процесів (вимірні характеристики, необхідні для управління процесом і підвищення можливості його виконання). Третій етап технології присвячено синтезу моделі планування розвитку підмножини процесів моделі SPICE, яка визначає рівень якості окремої складової процесу розробки програмного забезпечення (ПР ПЗ), що в свою чергу позитивно впливає на рівень розробки програмних систем. Оцінка та планування рівня можливості підмножини процесів реалізується на деякому плановому періоді в умовах обмежених ресурсів на основі їх оптимального розподілу з урахуванням важливості окремих процесів та їх практик упродовж планового періоду. На четвертому етапі технології розглядається алгоритм планування розвитку підмножини процесів еталонної моделі зрілості SPICE на основі методу послідовного аналізу варіантів. Це обумовлено в першу чергу тим, що модель оптимізації має адитивну цільову функцію. Метод дозволяє під час його використання відкидати ті допустимі рішення, які не містять оптимальних. У подальшому при конкретизації моделі планується вибрати алгоритм, який відноситься до цього методу і адаптувати його до розв’язання поставленої задачі. П’ятий етап присвячено інформаційній технології реалізації розробленої моделі та алгоритму. На цьому етапі вирішується наступна множина задач. Аналіз бізнес-процесів технології покращення якості ПР ПЗ. Визначення вимог до ПЗ. Формування діаграми варіантів використання. Розробка моделей даних. Обґрунтування вибору інструментарію для розробки ПЗ. Вибір еталонної системної архітектури. Далі кодування і тестування ПЗ. На шостому етапі на основі інформаційної технології формується множина варіантів плану підвищення якості підмножини процесів моделі зрілості SPICE з метою підтримки прийняття рішення керівництвом ІТ-компанії. Для цього попередньо визначається множина ефективних рішень, яка пропонується для визначення остаточного варіанта, який реалізується у подальшому.Документ Геометричне моделювання трас і потоків(Національний технічний університет "Харківський політехнічний інститут", 2023) Левтеров, Андрій Іванович; Плєхова, Ганна Анатоліївна; Костікова, Марина Володимирівна; Окунь, Антон ОлександровичДосліджено та розроблено математичні моделі для вирішення задач оптимізації з’єднання в неодносвязних областях за типових технологічних обмежень на геометричні та топологічні параметри трас, насамперед, на кривизну та кількість вигинів. Моделі пов'язані з існуючими та перспективними топогеодезичними моделями полігональних зображень територій. Розв'язання задач зв'язку передбачає пошук оптимальних траєкторій маршрутів і сіток у межах необмежених геометричних форм. Для цього потрібна розробка безлічі загальних моделей як полів, де здійснюються зв’язки. Сполучення можуть бути різних типів, таких як гнучкі, манхеттенські, рівні, тверді, а також маршрути інших типів. Смеляков та Алісейко (Плєхова Г. А.) зауважують, що глобальне та локальне регулювання геометричних зв’язків для розв’язання задач зв’язків можна представити як загальну оптимізаційну задачу зв’язку, яка визначається як задача вибору < , R >, де R – набір альтернатив, – принцип оптимальності. При цьому набір можна представити як сукупність фазового простору та обмежень Q, які застосовуються до параметрів фазового простору . У свою чергу, доцільно уявити, що фазовий простір є декартовим добутком = X*Y*Z*U вихідних даних X, збурень Y, параметрів керування U та результатів Z. Аналіз задачі свідчить про те, що насамперед ефективність моделювання фазового простору пов'язана з описом вихідних даних X про площу F і простір L можливих магістралей в F. Питання досліджується як розробка побудови структур моделей та методології їх використання, які б уможливили конструктивне та ефективне (в обчислювальній техніці) моделювання та дослідження різноманітних моделей та алгоритмів, які зберігають геометричність та інваріантність моделей, які необхідні для їх конкретного використання в умовах прийнятності використання різних вихідних структур даних. Дане дослідження присвячене розв’язанню задачі розробки моделі для задач зв’язку в рамках геометричного проектування.Документ Дослідження демографічних ситуацій на базі лагових моделей(Національний технічний університет "Харківський політехнічний інститут", 2023) Ахієзер, Олена Борисівна; Тоніца, Олег Володимирович; Геляровська, Оксана Анатоліївна; Сердюк, Ірина Василівна; Асландуков, Микола ОлексійовичПропонується дослідження та прогнозування часових рядів на основі моделей з лагами, а також розрахунок достовірного прогнозу на основі даних про народжуваність по Україні. Економічне моделювання – це один із важливих сучасних інструментів оцінки впливу технологій на економічний сектор з метою отримання оптимального рішення. Економічні оцінки можуть ґрунтуватися на кількох різних підходах до моделювання, кожен з яких має свої сильні та слабкі сторони. Актуальність використання економіко-математичних моделей з метою вивчення демографії пов'язана з необхідністю вивчення популяційних та міграційних процесів, а також для подальшого планування та здійснення економічного та соціального розвитку країни. У кожній сфері економіки зустрічаються явища, які цікаво та важливо вивчати в їх розвитку, оскільки вони еволюціонують у часі. Ціни, економічні умови, режим протікання промислового процесу, демографічні дані мають властивість змінюватися протягом часу. Сукупність вимірювань подібного роду показників в залежності від часу представляє собою часовий ряд. Цілі вивчення часових рядів можуть бути різними. Можливо, наприклад, намагатися передбачити майбутнє на основі знань минулого, керувати процесом, який породжує ряд, намагатися з'ясувати механізм, який лежить в основі процесу, очистити ряд від компонентів, які затемнюють його динаміку, або просто стисло зробити опис характерних особливостей ряду. При вивченні взаємозв’язків між показниками або при аналізі їх розвитку в часі в якості пояснюючих змінних використовують не тільки поточне значення змінних, але й деякі попередні по часу значення, а також сам час. Моделі даного типу називаються динамічними. В економічному аналізі динамічні моделі використовуються достатньо широко. Це цілком природно, адже в багатьох випадках вплив одних економічних факторів на інші здійснюється не миттєво, а з деяким запізненням – лагом. Об'єктом дослідження роботи являється математична модель взаємозалежності векторного часового ряду "Народжуваність по Україні за січень 2005 – липень 2012 рр." від реального доходу на душу населення. Дані вибрані досить актуально, адже без попереднього демографічного прогнозу неможливо уявити перспективи промисловості та споживання товарів та послуг, житлового будівництва, розвитку соціальної інфраструктури, охорони здоров’я та освіти, пенсійної системи та рішення геополітичних проблем.Документ Дослідження методів безпечної маршрутизації у програмно-конфігурованих мережах(Національний технічний університет "Харківський політехнічний інститут", 2023) Левтеров, Андрій Іванович; Плєхова, Ганна Анатоліївна; Костікова, Марина Володимирівна; Бережна, Наталія Георгіївна; Окунь, Антон ОлександровичУ сучасному світі безпека мережі є ключовим питанням інформаційної безпеки. Віртуальні мережі стали невід’ємною частиною сучасної ІТ-інфраструктури, що ставить перед нами виклики у сфері безпеки. Одним з рішень цієї проблеми є використання програмно-визначеної мережі (SDN), яка надає засоби контролю та керування мережевим трафіком. Однак, як і будь-яка технологія, SDN має свої вразливості, які необхідно враховувати під час її розгортання. Одним із інструментів, який допомагає врахувати вразливості мережевої інфраструктури, є стандарт Common Vulnerability Scoring System (CVSS). Це дозволяє кількісно визначити рівень уразливості інфраструктури, що забезпечує ефективний захист мережі. Аналіз стандарту CVSS є важливим етапом у розробці стратегії безпеки мережі. У цій статті аналізуються стандарти для побудови програмно-конфігурованих мереж. Зазначається, що SDN – це сучасний підхід до проектування, побудови та експлуатації інформаційних комунікаційних мереж. Використання SDN дає можливість безпосередньо програмувати та динамічно керувати мережею, а також абстрагувати функціональні можливості рівня інфраструктури. Однак зростання інтересу до SDN виявило недоліки їх застосування в боротьбі із загрозами кібербезпеці. Сама архітектура SDN, зовнішні шкідливі атаки, недостатній контроль доступу та засоби шифрування були визнані основними проблемами безпеки. Запропоновано використання інструментів безпечної маршрутизації на основі показників уразливості для підвищення рівня безпеки мережі площини даних SDN. Відповідно до проведеного аналізу вразливостей площини даних SDN та функціональності інструментів маршрутизації, автори рекомендують використовувати стандарт CVSS для кількісної оцінки рівня вразливості інфраструктури під час розробки та дослідження перспективних підходів до безпечної маршрутизації в площині даних програмно налаштованих мереж.Документ Дослідження та проєктування архітектури Marketing Cloud Salesforce CRM в залежності від маркетингової стратегії компанії(Національний технічний університет "Харківський політехнічний інститут", 2023) Москаленко, Валентина Володимирівна; Матвієнко, Андрій Олександрович; Фонта, Наталія ГригорівнаМетою дослідження є підвищення рівня ефективного залучення нових клієнтів та утримання існуючої клієнтської бази компанії через реалізацію інноваційних маркетингових стратегій. Доведено доцільність використання концепції управління взаємовідносинами з клієнтами (Customer Relationship Management) та використання інформаційних систем класу CRM для досягнення мети. Досліджено CRM платформу Salesforce Marketing Cloud, яка відноситься до хмарних типів інформаційних систем. Наведено опис бізнес-логіки Salesforce Marketing Cloud, яка включає прийняття рішень на основі аналітичних даних, сегментацію клієнтів, автоматизацію індивідуального підходу до клієнтів з метою підвищення лояльності клієнтів і зростання доходу компанії. Salesforce Marketing Cloud надає можливість створювати персоналізовані маркетингові заходи та керувати ними, взаємодіяти з клієнтами за різними каналами, аналізувати наслідки маркетингових зусиль для постійного вдосконалення маркетингових стратегій компанії. Досліджено функціональність та особливості основних компонентів Salesforce Marketing Cloud. У Salesforce Marketing Cloud реалізовано такі основні функції: email-маркетинг, мобільний маркетинг, управління соціальними медіа-заходами та іншими видами маркетингу. Користувачі Salesforce Marketing Cloud можуть створювати персоналізовані маркетингові заходи та управляти ними, за кількома каналами взаємодіяти з клієнтами та аналізувати маркетингові зусилля для постійного вдосконалення маркетингових стратегій. Здійснено проєктування архітектури Salesforce Marketing Cloud для поведінкової сегментації клієнтів компанії. Розроблено Web-додаток для покращення роботи користувачів платформи з даними клієнтів, що зберігаються в Data Extensions. Для автоматизації сегментації клієнтів на основі їх поведінкових даних була використана Automation Studio, побудовані SQL запити, використані системні таблиці даних Data Views. Розроблена архітектура Marketing Cloud Salesforce CRM на основі поведінкової сегментації є важливим інструментом для реалізації маркетингової стратегії компанії, забезпечуючи успішне залучення та утримання клієнтів, а також для досягнення стратегічних цілей.