Видання НТУ "ХПІ"

Постійне посилання на розділhttps://repository.kpi.kharkov.ua/handle/KhPI-Press/62886

Переглянути

Результати пошуку

Зараз показуємо 1 - 4 з 4
  • Ескіз
    Документ
    Development of a method for assessing the adequacy of a computer system model based on Petri nets
    (Національний технічний університет "Харківський політехнічний інститут", 2024) Shyman, Anna; Kuchuk, Nina; Filatova, Anna; Bellorin-Herrera, Oleksandra
    The purpose of modeling any system using a Petri net is to study the behavior of the modeled system based on the analysis of the defined properties of the Petri net. Therefore, it is necessary to develop a method for assessing the adequacy of the model, based on the assessment of the degree of its correspondence to the behavior of the system. The object of research is the behavior of a system model built using a Petri net. The subject of the research is the value of the deviation of the simulated processes from the real values. The goal of the research is to develop a method for assessing the adequacy of the description of the dynamics of the researched process in a model of a computer system based on Petri nets.Conclusions. The developed method makes it possible to assess the adequacy of the model based on Petri nets with accuracy to the entered assumptions. The method allows timely background history of dynamic processes and justify the choice of its length. The method also allows reducing the possibility of an irrational increase in the size of the synthesized model.
  • Ескіз
    Документ
    Method of testing large numbers for primality
    (Національний технічний університет "Харківський політехнічний інститут", 2024) Pevnev, Vladimir; Yudin, Оles; Sedlaček, Peter; Kuchuk, Nina
    The current stage of scientific and technological development entails ensuring information security across all domains of human activity. Confidential data and wireless channels of remote control systems are particularly sensitive to various types of attacks. In these cases, various encryption systems are most commonly used for information protection, among which large prime numbers are widely utilized. The subject of research involves methods for generating prime numbers, which entail selecting candidates for primality and determining the primality of numbers. The subject of research involves methods for generating prime numbers, which choice selecting candidates for primality and determining the primality of numbers. The objective of the work is the development and theoretical justification of a method for determining the primality of numbers and providing the results of its testing. The aim to address the following main tasks: analyze the most commonly used and latest algorithms, methods, approaches, and tools for primality testing among large numbers; propose and theoretically justify a method for determining primality for large numbers; and conduct its testing. To achieve this aim, general scientific methods have been applied, including analysis of the subject area and mathematical apparatus, utilization of set theory, number theory, fields theory, as well as experimental design for organizing and conducting experimental research. The following results have been obtained: modern methods for selecting candidates for primality testing of large numbers have been analyzed, options for generating large prime numbers have been considered, and the main shortcomings of these methods for practical application of constructed prime numbers have been identified. Methods for determining candidates for primality testing of large numbers and a three-stage method for testing numbers for primality have been proposed and theoretically justified. The testing conducted on the proposed primality determination method has demonstrated the correctness of the theoretical conclusions regarding the feasibility of applying the proposed method to solve the stated problem. Conclusions. The use of a candidate primality testing strategy allows for a significant reduction in the number of tested numbers. For numbers of size 200 digits, the tested numbers is reduced to 8.82%. As the size of the tested numbers increases, their quantity will decrease. The proposed method for primality testing is sufficiently simple and effective. The first two stages allow for filtering out all composite numbers except for Carmichael numbers. In the first stage, using the first ten prime numbers filters out over 80 percent of the tested numbers. In the second stage, composite numbers with factors greater than 29 are sieved out. In the third stage, Carmichael numbers are sieved out. The test is polynomial, deterministic, and unconditional. Сучасний етап розвитку науки та техніки передбачає забезпечення інформаційної безпеки у всіх сферах людської діяльності. Найбільш чутливими до різноманітних атак є конфіденційні дані та бездротові канали систем дистанційного управління. Для захисту інформації у цих випадках найчастіше використовуються різноманітні системи шифрування, серед яких широко використовуються прості числа великої розмірності. Предметом досліджень є методи побудови простих чисел, які полягають у виборі кандидатів на простоту та визначенні простоти чисел. Метою роботи є розробка та теоретичне обґрунтування методу визначення простоти чисел і надання результатів його тестування. У статті передбачається вирішити такі основні завдання: проаналізувати найбільш уживані та найновіші алгоритми, методи, підходи та засоби визначення кандидатів на простоту серед чисел великої розмірності, запропонувати та теоретично обґрунтувати метод визначення простоти для великих чисел, провести його тестування. Для досягнення мети застосовано загальнонаукові методи: аналіз предметної області та математичний апарат, використано теорії множин, чисел та полів, планування експерименту для організації та проведення експериментальних досліджень. Здобуто такі результати:проаналізовано сучасні методи вибору кандидатів на перевірку великих чисел на простоту, розглянуті варіанти генерації великих простих чисел, виявлені основні недоліки цих методів для практичного застосування побудованих таким чином простих чисел. Запропоновано та теоретично обґрунтовано метод визначення кандидатів для перевірки великих чисел на простоту та триетапний метод для перевірки чисел на простоту. Проведене тестування запропонованого методу визначення простоти показало правильність теоретичних висновків про можливість застосування запропонованого методу для вирішення поставленої задачі. Висновки: Використання стратегії вибору кандидата на простоту дозволяє значно зменшити кількість перевірених чисел. На числах розміром у 200 десятинних знаків кількість чисел для перевірки зменшується до 8,82%. Зі зростанням розміру чисел для перевірки їх кількість буде зменшуватися. Запропонований метод перевірки чисел на простоту достатньо простий та ефективний. Перші два етапи дозволяють відсіяти всі складені числа, за винятком чисел Кармайкла. При цьому на першому етапі при використанні перших десяти простих чисел відсівається більше 80% чисел для перевірки. На другому етапі проводиться відсів складених чисел з складниками більше 29. На третьому етапі відсіюються числа Кармайкла. Тест є поліноміальним, детермінованим та безумовним.
  • Ескіз
    Документ
    Practical principles of integrating artificial intelligence into the technology of regional security predicting
    (Національний технічний університет "Харківський політехнічний інститут", 2024) Shefer, Oleksandr; Laktionov, Oleksandr; Pents, Volodymyr; Hlushko, Alina; Kuchuk, Nina
    Objective. The aim is to enhance the efficiency of diagnostics for determining the level of air attack safety through the practical integration principles of artificial intelligence. Methodology. Models and technologies for safety diagnostics of the region (territorial community) have been explored. The process of building an artificial intelligence model requires differentiation of objects at a level to accumulate assessments-characteristics of aerial vehicles. The practical integration principles of artificial intelligence into the forecasting technology are based on the Region Safety Index, used for constructing machine learning models. The optimal machine learning model of the proposed approach is selected from a list of several models. Results. A technology for predicting the level of regional safety based on the Safety Index has been developed. The recommended optimal model is the Random Forest model ([('max_depth', 13), ('max_features', 'sqrt'), ('min_samples_leaf', 1), ('min_samples_split', 2), ('n_estimators', 79)]), demonstrating the most effective quality indicators of MAE; MAX; RMSE 0.005; 0.083; 0.0139, respectively. Scientific Novelty. The proposed approach is based on a linear model of the Region Safety Index, which, unlike existing ones, takes into account the interaction of factors. This allows for advantages of the proposed method over existing approaches in terms of the root mean square error of 0.496; 0.625, respectively. In turn, this influences the quality of machine learning models. Practical Significance. The proposed solutions are valuable for diagnosing the level of safety in the region of Ukraine, particularly in the context of air attacks.
  • Ескіз
    Документ
    Designing and evaluating DL-model for vulnerability detection in smart contracts
    (Національний технічний університет "Харківський політехнічний інститут", 2023) Shmatko, Oleksandr; Kolomiitsev, Oleksii; Rekova, Nataliia; Kuchuk, Nina; Matvieiev, Oleksandr
    Task features. Smart-contracts are programs that are stored in a distributed registry and execute code written in them in response to transactions addressed to them. Such smart- contracts are written in the Solidity programming language, which has a specific structure and syntax. The language was developed for the Ethereum platform. Having a specific structure, such languages are prone to certain vulnerabilities, the use of which can lead to large financial losses. Task statement. In this paper, a Deep Learning (DL) model is used to detect the vulnerabilities. Using the chosen approach and a properly specified input data structure, it is possible to detect complex dependencies between various program variables that contain vulnerabilities and bugs. Research results. Using well-defined experiments, this approach was investigated to better understand the model and improve its performance. The developed model classified vulnerabilities at the string level, using the Solidity corpus of smart-contracts as input data. The application of the DL model allows vulnerabilities of varying complexity to be identified in smart-contracts. Conclusions. Thus, the pipeline developed by us can capture more internal code information than other models. Information from software tokens, although semantically incapable of capturing vulnerabilities, increases the accuracy of models. The interpretability of the model has been added through the use of the attention mechanism. Operator accounting has shown significant performance improvements.