2024 № 2 Сучасні інформаційні системи
Постійне посилання колекціїhttps://repository.kpi.kharkov.ua/handle/KhPI-Press/80767
Переглянути
Документ Comparative analysis of spectral anomalies detection methods on images from on-board remote sensing systems(Національний технічний університет "Харківський політехнічний інститут", 2024) Hurin, Artem; Khudov, Hennadii; Kostyria, Oleksandr; Maslenko, Oleh; Siadrystyi, SerhiiThe subject matter of the article is methods of detecting spectral anomalies on images from remote sensing systems. The goal is to conduct a comparative analysis of methods for detecting spectral anomalies on images from remote sensing systems. The tasks are: analysis of the main methods of detecting spectral anomalies on images from remote sensing systems; processing of images from remote sensing systems using basic methods of detecting spectral anomalies; comparative assessment of the quality of methods for detecting spectral anomalies on images from remote monitoring systems. The methods used are: methods of digital image processing, mathematical apparatus of matrix theory, methods of mathematical modeling, methods of optimization theory, analytical and empirical methods of image comparison. The following results are obtained. The main methods of detecting spectral anomalies on images from remote sensing systems were analyzed. Processing of images from remote sensing systems using the basic methods of detecting spectral anomalies was carried out. A comparative assessment of the quality of methods for detecting spectral anomalies on images from remote monitoring systems was carried out. Conclusions. The spectral difference of the considered methods is revealed by the value of information indicators -Euclidean distance, Mahalanobis distance, brightness contrast, and Kullback-Leibler information divergence. Mathematical modeling of the considered methods of detecting spectral anomalies of images with a relatively “simple” and complicated background was carried out.It was established thatwhen searching for a spectral anomaly on an image with a complicated background, the method based on the Kullback-Leibler divergence can be more effective than the other considered methods, but is not optimal. When determining several areas of the image with high divergence indicators, they should be additionally investigated using the specified methods in order to more accurately determine the position of the spectral anomaly. Предметом вивчення в статті є методи виявлення спектральних аномалій на зображеннях з систем дистанційного зондування. Метоює проведення порівняльного аналізу методів виявлення спектральних аномалій на зображеннях з систем дистанційного зондування. Завдання:аналіз основних методів виявлення спектральних аномалій на зображеннях з систем дистанційного зондування; обробка зображень з систем дистанційного зондування основними методами виявлення спектральних аномалій; порівняльна оцінка якості методів виявлення спектральних аномалій на зображеннях з систем дистанційного моніторингу. Використовуваними методамиє: методи цифрової обробки зображень, математичний апарат теорії матриць, методи математичного моделювання, методи теорії оптимізації, аналітичні та емпіричні методи порівняння зображень. Отримані такі результати. Проведено аналіз основних методів виявлення спектральних аномалій на зображеннях з систем дистанційного зондування. Проведена обробка зображеньз систем дистанційного зондування основними методами виявлення спектральних аномалій. Проведена порівняльна оцінка якості методів виявлення спектральних аномалій на зображеннях з систем дистанційного моніторингу. Висновки. Спектральна відмінність розглянутих методів виявляється за значенням інформаційних показників –відстані Евкліда, відстані Махаланобіса, контрасту яскравості та інформаційної дивергенції Кульбака-Лейблера. Проведено математичне моделювання розглянутих методів виявлення спектральних аномалій зображень з відносно “простим” та ускладненим фоном. Встановлено, що при проведенні пошуку спектральної аномалії на зображенні з ускладненим фоном метод на основі дивергенції Кульбака-Лейблера може бути більш ефективним за інші розглянуті методи, але не є оптимальним. При визначенні декількох ділянок зображення з високими показниками дивергенції слід додатково їх дослідити із застосуванням визначених методів з метою більш точного визначення положення спектральної аномалії.Документ DeepFake detection using transfer learning-based Xception model(Національний технічний університет "Харківський політехнічний інститут", 2024) Rajakumareswaran, Velusamy; Raguvaran, Surendran; Chandrasekar, Venkatachalam; Rajkumar, Sugavanam; Arun, VijayakumarJustification of the purpose of the research. In recent times, several approaches for face manipulation in videos have been extensively applied and availed to the public which makes editing faces in video easy for everyone effortlessly with realistic efforts. While beneficial in various domains, these methods could significantly harm society if employed to spread misinformation. So, it is also vital to properly detect whether a face has been distorted in a video series. To detect this deepfake, convolutional neural networks can be used in past works. However, it needs a greater number of parameters and more computations. So, to overcome these limitations and to accurately detect deepfakes in videos, a transfer learning-based model named the Improved Xception model is suggested. Obtained results. This model is trained using extracted facial landmark features with robust training. Moreover, the improved Xception model's detection accuracy is evaluated alongside ResNet and Inception, considering model loss, accuracy, ROC, training time, and the Precision-Recall curve. The outcomes confirm the success of the proposed model, which employs transfer learning techniques to identify fraudulent videos. Furthermore, the method demonstrates a noteworthy 5% increase in efficiency compared to current systems. Обґрунтування мети дослідження. Останнім часом кілька підходів до маніпулювання обличчями у відео були широко застосовані та доступні для громадськості, що робить редагування обличь у відео легким для всіх без особливих зусиль із реалістичними зусиллями. Незважаючи на користь у різних сферах, ці методи можуть завдати значної шкоди суспільству, якщо використовувати їх для поширення дезінформації. Тому також важливо правильно визначити, чи було спотворене обличчя у відеоряді. Щоб виявити цей глибокий фейк, у минулих роботах можна використовувати згорточні нейронні мережі. Однак для цього потрібна більша кількість параметрів і більше обчислень. Тому для подолання цих обмежень і точного виявлення глибоких фейків у відео пропонується модель на основі навчання передачі під назвою Improved Xception model. Отримані результати.Ця модель навчена за допомогою витягнутих орієнтирів обличчя з надійним тренуванням. Крім того, покращена точність виявлення моделі Xception оцінюється разом із ResNet і Inception, враховуючи втрати моделі, точність, ROC, час навчання та криву Precision-Recall. Результати підтверджують успіх запропонованої моделі, яка використовує методи навчання передачі для виявлення шахрайських відео. Крім того, метод демонструє помітне підвищення ефективності на 5% порівняно з поточними системами.Документ Ensuring the functional stability of the information system of the power plant on the basis of monitoring the parameters of the working condition of computer devices(Національний технічний університет "Харківський політехнічний інститут", 2024) Barabash, Oleg; Svynchuk, Olha; Salanda, Ivanna; Mashkov, Viktor; Myroniuk, MykolaThe functional stability of the information system of the power plant is ensured by a complex of processes and mechanisms that are capable of maintaining the normal operation of the system even in the event of errors, failures or negative impacts. The aim of the research. An important aspect of ensuring the functional stability of an information system is the monitoring of its healthy state, as it helps to identify, analyze and respond to any problems in a timely manner, ensuring the reliable and uninterrupted operation of the system. It was decided to choose a test diagnosis based on the principle of a wandering diagnostic core. Research results. An algorithm for detecting failures in the system has been developed based on the decryption of the totality of the results of the system's test checks. The developed software application allows you to monitor the state of various components of the information system and detect possible problems or failures in a timely manner in order to support the continuous operation of the system. This application allows you to increase the reliability of diagnostics, reduce the time of diagnostics, and carry out diagnostics with the specified completeness and depth. The depth and completeness of diagnosis is determined by the test task. Verification. To confirm the correctness of the developed software product, mathematical modeling of the process of diagnosing the information system, which was divided into several subsystems containing a certain number of modules, was carried out. For the division into subsystems, the number of modules in each subsystem is important -it should not exceed 30 modules. This limitation is due to the limited computing power of modern microprocessor technology during the solution of a class of NP-complete problems. Функціональна стійкість інформаційної системи електростанції забезпечується комплексом процесів та механізмів, які здатні підтримувати нормальну роботу системи навіть в умовах виникнення помилок, відмов або негативних впливів. Мета дослідження. Важливим аспектом забезпечення функціональної стійкості інформаційної системи є моніторинг її справного стану, оскільки він допомагає ідентифікувати, аналізувати та вчасно реагувати на будь-які проблеми, забезпечуючи надійну та безперебійну роботу системи. Було прийнято рішення обрати тестове діагностування за принципом блукаючого діагностичного ядра. Результати дослідження. Розроблено алгоритм виявлення відмов в системі на основі дешифрації сукупності результатів тестових перевірок системи. Розроблений програмний застосунок дозволяє відстежувати стан різних компонентів інформаційної системи та своєчасно виявляти можливі проблеми або відмови з метою підтримки безперервної роботи системи. Даний застосунок дозволяє підвищити достовірність діагностування, знизити час діагностування та проводити діагностування із заданою повнотою та глибиною. Глибина і повнота діагностування визначаються тестовим завдання. Верифікація. Для підтвердження правильності розробленого програмного продукту проведено математичне моделювання процесу діагностування інформаційної системи, яка розбивалась на кілька підсистем, які містять в собі певне число модулів. Для розбиття на підсистеми важливе значення має кількість модулів у кожній підсистемі –вона не повинна перевищувати 30 модулів. Дане обмеження обумовлено обмеженістю обчислювальної потужності сучасної мікропроцесорної техніки під час рішення класу NP-повних задач.Документ FPGA-based implementation of a Gaussian smoothing filterwith powers-of-two coefficients(Національний технічний університет "Харківський політехнічний інститут", 2024) Ivashko, Andrey; Zuev, Andrey; Karaman, Dmytro; Moškon, MihaThe purpose of the studyis to develop methods for synthesizing a Gaussian filter that ensures simplified hardware and software implementation, particularly filters with powers-of-two coefficients. Such filters can provide effective denoising of images, including landscape maps, both natural and synthetically generated. The study also involves analyzing of methods for FPGA implementation, comparing their hardware complexity, performance, and noise reduction with traditional Gaussian filters. Results. An algorithm for rounding filter coefficients to powers of two, providing optimal approximation of the constructed filter to the original, is presented, along with examples of developed filters. Topics covered include FPGA implementation, based on the Xilinx Artix-7 FPGA. Filter structures, testing methods, simulation results, and verification of the scheme are discussed. Examples of the technological placement of the implemented scheme on the FPGA chip are provided. Comparative evaluations of FPGA resources and performance for proposedand traditional Gaussian filters are carried out. Digital modeling of the filters and noise reduction estimates for noisy images of the terrain surface are presented. The developed algorithm provides approximation of Gaussian filter coefficients as powersof two for a given window size and maximum number of bits with a relative error of no more than 0.18. Implementing the proposed filters on FPGA results in a hardware costs reduction with comparable performance. Computer simulation show that Gaussian filters both traditional and proposed effectively suppress additive white noise in images. Proposed filters improve the signal-to-noise ratio within 5-10 dB and practically match the filtering quality of traditional Gaussian filters. Метою дослідженняє розробка методів синтезу гаусівського фільтра, якігарантуютьспрощену апаратну та програмну реалізацію, зокрема фільтрів з коефіцієнтами, що є степенями двійки. Такі фільтри можуть забезпечувати ефективне приглушення шумів на зображеннях, включаючи ландшафтні карти, як природні, так і синтетично створені. Дослідження також включає аналіз методів реалізації на FPGA, порівняння апаратної складностірезультатів їх роботи, продуктивності та приглушення шумів у порівнянні зтрадиційними гаусівськими фільтрами. Представлений алгоритм округлення коефіцієнтів фільтра до степенів двійки, що забезпечує оптимальне наближення побудованого фільтра до оригіналу, разом з прикладами розроблених фільтрів. Розглянуті теми включаютьпрактичнуреалізацію на основі FPGA Xilinx Artix-7. Обговорюються структури фільтрів, методи тестування, результати симуляції та верифікація схеми. Надані приклади технологічного розміщення реалізованої схеми на чіпі FPGA. Проведені порівняльні оцінки ресурсів та продуктивності FPGA для запропонованих та традиційних гаусівських фільтрів. Представлені цифрові моделі фільтрів та оцінки зменшення шумів для зашумлених зображень поверхні місцевості. Розроблений алгоритм забезпечує наближення коефіцієнтів гаусівського фільтра у вигляді чисел ступенюдвійки для заданого розміру вікна та максимальної кількості бітів з відносною похибкою не більше 0,18. Реалізація запропонованих фільтрів на FPGA призводить до зменшення витрат на апаратне забезпечення з порівняною продуктивністю. Комп'ютерне моделювання показує, що як традиційні, так і запропоновані гаусівські фільтри ефективно приглушують адитивний білий шум на зображеннях. Запропоновані фільтри покращують співвідношення сигнал/шум на 5-10 дБ та практично відповідають якості фільтрації традиційних гаусівських фільтрів.Документ Image classifier for fast search in large databases(Національний технічний університет "Харківський політехнічний інститут", 2024) Filatov, Valerii; Filatova, Anna; Povoroznyuk, Anatolii; Omarov, ShakhinRelevance. The avalanche-like growth in the amount of information on the Internet necessitates the development of effective methods for quickly processing such information in information systems.Clustering of news information is carried out by taking into account both the morphological analysis of texts and graphic content. Thus, an urgent task is the clustering of images accompanying textual information on various web resources, including news portals. The subject of studyis an image classifier that exhibits low sensitivity to increased information in databases. The purpose of the article is to enhance the efficiency of searching for identical images in databases experiencing a daily influx of 10-12 thousand images, by developing an image classifier. Methods used: mathematical modeling, content-based image retrieval, two-dimensional discrete cosine transform, image processing methods, decision-making methods. The following results were obtained. An image classifier has been developed with low sensitivity to increased database information. The properties of the developed classifier have been analyzed. The experiments demonstrated that clustering information based on images using the developed classifier proved to be sufficiently fast and cost-effective in terms of information volumes and computational power requirements. Актуальність. Лавиноподібне зростання кількості інформації в Інтернеті потребує розробки ефективних методів швидкої обробки такої інформації в інформаційних системах. Кластеризація новинної інформації проводиться як з урахуванням морфологічного аналізу текстів, так і графічного контенту. Таким чином, актуальним завданням є кластеризація зображень, що супроводжують текстову інформацію на різних веб-ресурсах, включаючи портали новин. Предмет дослідження:класифікатор зображень, що малочутливий до зростання кількості інформації в базах даних. Метою дослідженняє підвищення продуктивності пошуку однакових зображень у базах даних, у яких швидкість додавання інформації досягає 10-12 тисяч зображень на добу,шляхом розробки класифікатора зображень. Методи, що використовуються:математичне моделювання, пошук зображень на основі контенту, двовимірне дискретне косинусне перетворення, методи обробки зображень, методи прийняття рішень. Отримані результати.Розроблено класифікатор зображень, що малочутливий до зростання кількості інформації в базах даних. Виконано аналіз властивостей розробленого класифікатора. Проведені експерименти показали, що кластеризація інформації за зображеннями за допомогою розробленого класифікатора виявилася досить швидкою та маловитратною з погляду обсягів інформації та вимог до обчислювальної потужності.Документ Integration of IoT with cloud, fog, and edge computing: a review(Національний технічний університет "Харківський політехнічний інститут", 2024) Kuchuk, Heorhii; Malokhvii, EduardPurpose of review. The paper provides an in-depth exploration of the integration of Internet of Things (IoT) technologies with cloud, fog, and edge computing paradigms, examining the transformative impact on computational architectures. Approach to review. Beginning with an overview of IoT's evolution and its surge in global adoption, the paper emphasizes the increasing importance of integrating cloud, fog, and edge computing to meet the escalating demands for real-time data processing, low-latency communication, and scalable infrastructure in the IoT ecosystem. The survey meticulously dissects each computing paradigm, highlighting the unique characteristics, advantages, and challenges associated with IoT, cloud computing, edge computing, and fog computing. The discussion delves into the individual strengths and limitations of these technologies, addressing issues such as latency, bandwidth consumption, security, and data privacy. Further, the paper explores the synergies between IoT and cloud computing, recognizing cloud computing as a backend solution for processing vast data streams generated by IoT devices. Review results. Challenges related to unreliable data handling and privacy concerns are acknowledged, emphasizing the need for robust security measures and regulatory frameworks. The integration of edge computing with IoT is investigated, showcasing the symbiotic relationship where edge nodes leverage the residual computing capabilities of IoT devices to provide additional services. The challenges associated with the heterogeneity of edge computing systems are highlighted, and the paper presents research on computational offloading as a strategy to minimize latency in mobile edge computing. Fog computing's intermediary role in enhancing bandwidth, reducing latency, and providing scalability for IoT applications is thoroughly examined. Challenges related to security, authentication, and distributed denial of service in fog computing are acknowledged. The paper also explores innovative algorithms addressing resource management challenges in fog-IoT environments. Conclusions. The survey concludes with insights into the collaborative integration of cloud, fog, and edge computing to form a cohesive computational architecture for IoT. The future perspectives section anticipates the role of 6G technology in unlocking the full potential of IoT, emphasizing applications such as telemedicine, smart cities, and enhanced distance learning. Cybersecurity concerns, energy consumption, and standardization challenges are identified as key areas for future research. Стаття містить поглиблене дослідження інтеграції технологій Інтернету речей (IoT) із парадигмами хмарних, туманних і периферійних обчислень, досліджуючи трансформаційний вплив на обчислювальні архітектури. Підхід до огляду. Починаючи з огляду еволюції IoT та його стрімкого поширення в усьому світі, документ підкреслює зростаючу важливість інтеграції хмарних, туманних і периферійних обчислень для задоволення зростаючих вимог до обробки даних у реальному часі, зв’язку з низькою затримкою та масштабованої інфраструктури в екосистема IoT. Опитування ретельно аналізує кожну обчислювальну парадигму, підкреслюючи унікальні характеристики, переваги та проблеми, пов’язані з IoT, хмарними обчисленнями, периферійними обчисленнями та туманними обчисленнями. Обговорення заглиблюється в індивідуальні переваги та обмеження цих технологій, розглядаючи такі проблеми, як затримка, споживання пропускної здатності, безпека та конфіденційність даних. Крім того, у статті досліджується взаємодія між IoT і хмарними обчисленнями, визнаючи хмарні обчислення серверним рішенням для обробки великих потоків даних, створених пристроями IoT. Результати огляду.Визнаються проблеми, пов’язані з ненадійною обробкою даних і проблемами конфіденційності, наголошується на необхідності надійних заходів безпеки та нормативної бази. Досліджується інтеграція периферійних обчисленьз IoT, демонструючи симбіотичні відносини, коли крайові вузли використовують залишкові обчислювальні можливості пристроїв IoT для надання додаткових послуг. Висвітлено проблеми, пов’язані з неоднорідністю периферійних обчислювальних систем, і в статті представлено дослідження обчислювального розвантаження як стратегії мінімізації затримки в мобільних периферійних обчисленнях. Проміжна роль Fog Computing у збільшенні пропускної здатності, зменшенні затримки та забезпеченні масштабованості для програм IoT ретельно досліджується. Визнаються проблеми, пов’язані з безпекою, автентифікацією та розподіленою відмовою в обслуговуванні в туманних обчисленнях. У документі також досліджуються інноваційні алгоритми вирішення проблем управління ресурсами в середовищах fog-IoT. Висновки. Опитування завершується розумінням спільної інтеграції хмарних, туманних і периферійних обчислень для формування цілісної обчислювальної архітектури для IoT. Розділ про перспективи передбачає роль технології 6G у розкритті повного потенціалу IoT, акцентуючи увагу на таких програмах, як телемедицина, розумні міста та покращене дистанційне навчання. Питання кібербезпеки, споживання енергії та проблеми стандартизації визначені як ключові сфери майбутніх досліджень.Документ Medoids as a packing of ORB image descriptors(Національний технічний університет "Харківський політехнічний інститут", 2024) Gorokhovatskyi, Oleksii; Yakovleva, OlenaThe aim of the research. The paper presents the research about the feasibility to use matching medoids obtained from the set of ORB descriptors instead matching the full set of binary descriptors for image classification problem. Research results. Different methods that include direct brute force medoids matching, grouping of medoids for separate classes, and grouping of descriptors followed by calculation of medoids amongst them were proposed. Numerical experiments were performed for all these methods in order to compare the classification accuracy and inference time. It has been shown that using of medoids allowed us to redistribute processing time in order to perform more calculations during preprocessing rather than during classification. According to modelling performed on the Leeds Butterly dataset matching images based on medoidscould have the same accuracy as matching of descriptors (0.69–0.88 for different number of features). Medoids requireadditional time for the calculation during preprocessing stage but classification time becomes faster: in our experiments we have obtained about 9–10 times faster classification and same 9–10 times increasing preprocessing timefor the models that have comparable accuracies. Finally, the efficiency of the proposed ideas was compared to the CNN trained and evaluated on the same data. As expected, CNN required much more preprocessing (training) time but the result is worth it: this approach provides the bestclassification accuracy and inference time.Conclusion.Medoids matching could have the same accuracy as direct descriptors matching,but the usage of medoids allows us to redistribute the overall modelingtime with the increasing preprocessing time and making inference faster. Мета дослідження. У статті представлено дослідження можливості використання співставлення медоїдів, отриманих із набору дескрипторів ORB, замість порівняння повного набору бінарних дескрипторів для задачі класифікації зображень. Результати дослідження. Було запропоновано різні методи, які включають пряме зіставлення медоїдів повним перебором,групування медоїдів для окремих класів і групування дескрипторівз наступним обчисленням медоїдів серед них. Чисельні експерименти були проведені для всіх цих методів, щоб порівняти точність та час класифікації. Було показано, що використання медоїдів дозволило перерозподілити час обробкитаким чином, щоб виконати більше обчислень під час попередньої обробки, а не під час класифікації. Відповідно до моделювання, виконаного на наборі даних Leeds Butterly, порівняння зображеньна основі медоїдів можемати таку ж точність, як і порівняння дескрипторів (0.69–0.88 для різноїкількості дескрипторів). Обчислення медоїдіввимагаєдодаткового часу на етапі попередньої обробки, але час класифікації стає швидшим: у наших експериментах ми отримали приблизно в 9-10 разів швидшу класифікацію та в 9-10 разів збільшили час попередньої обробки для моделей, які мають порівнянну точність. Нарешті, ефективність запропонованих ідей було порівняно з навченими CNN та оціненона тих самих даних. Як і очікувалося, CNN вимагало набагато більше часу на попередню обробку (навчання), але результат був того вартий: цей підхід забезпечує найкращіточністьта часкласифікації.Висновки. Зіставлення медоїдів може досягти таку саму точність, як і пряме зіставлення дескрипторів, але використання медоїдів дозволяє перерозподіляти загальнийчас моделювання збільшившичас попередньої обробки та прискоривши класифікацію.Документ Method for generating a data set for training a neural network in a transport conveyor model(Національний технічний університет "Харківський політехнічний інститут", 2024) Pihnastyi, Oleh; Kozhevnikov, Georgii; Burduk, AnnaThe object of research is a stochastic input flow of material coming in the input of a conveyor-type transport system. Subject of research is the development of a method for generating values of the stochastic input material flow of transport conveyor to form a training data set for neural network models of the transport conveyor. The goal of the research is to develop a method for generating random values to construct implementations of the input material flow of a transport conveyor that have specified statistical characteristics calculated based on the results of previously performed experimental measurements. The article proposes a method for generating a data set for training a neural network for a model of a branched, extended transport conveyor. A method has been developed for constructing implementations of the stochastic input flow of material of a transport conveyor. Dimensionless parameters are introduced to determine similarity criteria for input material flows. The stochastic input material flow is presented as a series expansion in coordinate functions. To form statistical characteristics, a material flow implementation based on the results of experimental measurements is used. As a zero approximation for expansion coefficients, that are random variables, the normal distribution law of a random variable is used. Conclusion. It is shown that with an increase in the time interval for the implementation of the input material flow, the correlation function of the generated implementation steadily tends to the theoretically determined correlation function. The length of the time interval for the generated implementation of the input material flow was estimated. Об’єкт дослідження –стохастичний вхідний потік матеріалу, що надходить на вхід транспортної системи конвеєрного типу. Предмет дослідження —розробка методу генерування значень стохастичного потоку вхідного матеріалу транспортного конвеєра для формування навчального набору даних в моделях транспортного конвеєра, заснованих на нейронній мережі. Метою дослідження є розробка методу генерування випадкових значень для побудови реалізацій вхідного потоку матеріалу транспортного конвеєра, що має задані статистичні характеристики, розраховані на основі результатів попередньо виконаних експериментальних вимірювань. Результати дослідження. У статті пропонується метод формування набору даних для навчання моделі нейромереж розгалуженого протяжного транспортного конвеєра. Розроблено метод побудови реалізацій стохастичного вхідного потоку матеріалу транспортного конвеєра. Введено безрозмірні параметри, що дозволяють визначити критерії подібності для вхідних потоків матеріалу. Стохастичний вхідний потік матеріалу представлений у вигляді розкладання в ряд координатних функцій. Для формування статистичних характеристик використано реалізацію потоку матеріалу, побудовану на результатах експериментальних вимірювань. Як нульове наближення для коефіцієнтів розкладання, що є випадковими величинами, використано нормальний закон розподілу випадкової величини. Показано, що зі збільшенням часового інтервалу для реалізації вхідного потоку матеріалу функція кореляції згенерованої реалізації наближається до теоретично визначеної функції кореляції. Виконано оцінку довжини часового інтервалу для згенерованої реалізації вхідного потоку матеріалу.Документ Method of testing large numbers for primality(Національний технічний університет "Харківський політехнічний інститут", 2024) Pevnev, Vladimir; Yudin, Оles; Sedlaček, Peter; Kuchuk, NinaThe current stage of scientific and technological development entails ensuring information security across all domains of human activity. Confidential data and wireless channels of remote control systems are particularly sensitive to various types of attacks. In these cases, various encryption systems are most commonly used for information protection, among which large prime numbers are widely utilized. The subject of research involves methods for generating prime numbers, which entail selecting candidates for primality and determining the primality of numbers. The subject of research involves methods for generating prime numbers, which choice selecting candidates for primality and determining the primality of numbers. The objective of the work is the development and theoretical justification of a method for determining the primality of numbers and providing the results of its testing. The aim to address the following main tasks: analyze the most commonly used and latest algorithms, methods, approaches, and tools for primality testing among large numbers; propose and theoretically justify a method for determining primality for large numbers; and conduct its testing. To achieve this aim, general scientific methods have been applied, including analysis of the subject area and mathematical apparatus, utilization of set theory, number theory, fields theory, as well as experimental design for organizing and conducting experimental research. The following results have been obtained: modern methods for selecting candidates for primality testing of large numbers have been analyzed, options for generating large prime numbers have been considered, and the main shortcomings of these methods for practical application of constructed prime numbers have been identified. Methods for determining candidates for primality testing of large numbers and a three-stage method for testing numbers for primality have been proposed and theoretically justified. The testing conducted on the proposed primality determination method has demonstrated the correctness of the theoretical conclusions regarding the feasibility of applying the proposed method to solve the stated problem. Conclusions. The use of a candidate primality testing strategy allows for a significant reduction in the number of tested numbers. For numbers of size 200 digits, the tested numbers is reduced to 8.82%. As the size of the tested numbers increases, their quantity will decrease. The proposed method for primality testing is sufficiently simple and effective. The first two stages allow for filtering out all composite numbers except for Carmichael numbers. In the first stage, using the first ten prime numbers filters out over 80 percent of the tested numbers. In the second stage, composite numbers with factors greater than 29 are sieved out. In the third stage, Carmichael numbers are sieved out. The test is polynomial, deterministic, and unconditional. Сучасний етап розвитку науки та техніки передбачає забезпечення інформаційної безпеки у всіх сферах людської діяльності. Найбільш чутливими до різноманітних атак є конфіденційні дані та бездротові канали систем дистанційного управління. Для захисту інформації у цих випадках найчастіше використовуються різноманітні системи шифрування, серед яких широко використовуються прості числа великої розмірності. Предметом досліджень є методи побудови простих чисел, які полягають у виборі кандидатів на простоту та визначенні простоти чисел. Метою роботи є розробка та теоретичне обґрунтування методу визначення простоти чисел і надання результатів його тестування. У статті передбачається вирішити такі основні завдання: проаналізувати найбільш уживані та найновіші алгоритми, методи, підходи та засоби визначення кандидатів на простоту серед чисел великої розмірності, запропонувати та теоретично обґрунтувати метод визначення простоти для великих чисел, провести його тестування. Для досягнення мети застосовано загальнонаукові методи: аналіз предметної області та математичний апарат, використано теорії множин, чисел та полів, планування експерименту для організації та проведення експериментальних досліджень. Здобуто такі результати:проаналізовано сучасні методи вибору кандидатів на перевірку великих чисел на простоту, розглянуті варіанти генерації великих простих чисел, виявлені основні недоліки цих методів для практичного застосування побудованих таким чином простих чисел. Запропоновано та теоретично обґрунтовано метод визначення кандидатів для перевірки великих чисел на простоту та триетапний метод для перевірки чисел на простоту. Проведене тестування запропонованого методу визначення простоти показало правильність теоретичних висновків про можливість застосування запропонованого методу для вирішення поставленої задачі. Висновки: Використання стратегії вибору кандидата на простоту дозволяє значно зменшити кількість перевірених чисел. На числах розміром у 200 десятинних знаків кількість чисел для перевірки зменшується до 8,82%. Зі зростанням розміру чисел для перевірки їх кількість буде зменшуватися. Запропонований метод перевірки чисел на простоту достатньо простий та ефективний. Перші два етапи дозволяють відсіяти всі складені числа, за винятком чисел Кармайкла. При цьому на першому етапі при використанні перших десяти простих чисел відсівається більше 80% чисел для перевірки. На другому етапі проводиться відсів складених чисел з складниками більше 29. На третьому етапі відсіюються числа Кармайкла. Тест є поліноміальним, детермінованим та безумовним.Документ Modeling the distribution of emergency release productsat a nuclear power plant unit(Національний технічний університет "Харківський політехнічний інститут", 2024) Biliaieva, Viktoriia; Levchenko, Larysa; Myshchenko, Iryna; Tykhenko, Oksana; Kozachyna, VitaliiDespite the fact that much attention is paid to the safe operation of nuclear power plants, there is a possibility of an accident with the release of radionuclides. This is especially true in Ukraine, where there is a threat of the damage to nuclear reactors as a result of military operations. It is impossible to research the distribution of products emergency releases radioactive substances in laboratory conditions. Therefore, the only tool for the development predicting of an accident is the modeling the spread of a radionuclides cloud. Thepurpose of the researchis a modeling the distribution of emergency release products in a nuclear power plant unit, suitable for the operative assessment of a development an accident. Results of the research: The mathematical model of the distribution emission products of a nuclear power plant has been developed, which takes into account the value of the initial activity of emission products, the rate of the settling radioactive particles, the wind speed components, the intensity changes radionuclide emission over time. The technique for solving the boundary value problem of modeling in conditions of a complex shape of the computational domain, taking into account the presence of obstacles to the spread of emission products has been developed. The use of the velocity potential equation in evolutionary form allows us to speed up the calculation process. The chosen splitting scheme of an alternating-triangular method allows to find the speed potential according to the explicit form at each splitting step. This allowed software implementation of the CFD model. The visualized models of the emission cloud distribution allow to determine the radiation situation in any place of the emission product distribution zone. The developed model makes it possible to quickly predict the development of an accident in space and time, which makes it possible to take measures to protect people from exposure in the shortest possibletime. Conclusions: The obtained emission cloud propagation models and their visualization make it possible to determine the state of environmental pollution under various initial conditions during the development of the accident. Не дивлячись на те, що безпечній експлуатації ядерних енергетичних установок приділяється багато уваги, існує ймовірність аварії з викидом радіонуклідів. Особливо це актуально в Україні, де існує загроза ушкодження ядерних реакторів внаслідок бойових дій. Дослідження розповсюдження продуктів аварійних викидів радіоактивних речовин у лабораторних умовах неможливо. Тому єдиним інструментом прогнозування розвитку аварії є моделювання розповсюдження хмари радіонуклідів. Метою дослідження є моделювання поширення продуктів аварійного викиду на енергоблоці атомної електростанції, придатного для оперативного оцінювання розвитку аварії. Результати дослідження: Розроблено математичну модель поширення продуктів викиду. Енергоблоку атомної електростанції, яка враховує значення початкової активності продуктів викиду, швидкість осіданняр адіоактивних часток, компоненти швидкості вітру, зміни інтенсивності викиду радіонуклідів з часом. Розроблено методику розв’язку крайової задачі моделювання в умовах складної форми розрахункової області, яка враховує наявність перешкод розповсюдженню продуктів викиду. Застосування рівняння потенціалу швидкості у еволюційному вигляді дозволяє пришвидшити процес розрахунків. Обрана схема розщеплення поперемінно-трикутного методу дозволяє на кожному кроці розщеплення знаходити потенціал швидкості за явною формою. Це дозволило здійснити програмну реалізацію CFD моделі. Візуалізовані моделі поширення хмари викиду дозволяють визначити радіаційну обстановку у будь-якому місці зони розповсюдження продуктів викиду. Висновки: розроблена модель дозволяє оперативно прогнозувати розвиток аварії у просторі і часі, що надає можливість у мінімальні терміни вжити заходи із захисту людей від опромінення. Ключові слова: моделювання; ядерна аварія; радіонукліди; прогнозування.Документ Research and analysis of efficiency indicators of critical infrastructures in the communication system(Національний технічний університет "Харківський політехнічний інститут", 2024) Ibrаhimov, Bayram; Hasanov, Arif; Hashimov, ElshanThe efficiency indicators of the functioning critical information infrastructures in the communication system are analyzed based on the architectural concept of future networks. The object of the study is hardware and software complexes critical information infrastructures for special purposes. Critical information infrastructure represents information and telecommunication communication systems, the maintenance, reliability and security which are necessary for the safe operation special-purpose enterprises. In order to avoid the occurrence of various security and reliability incidents, the studied critical infrastructures communication systems require constant analysis and updating operating rules. The subject of the research is a method for calculating quality indicators of the functioning of critical information infrastructures in communication systems. In this work, using the example of a communication system based on modern technologies, the sequence of actions for analyzing threats to the security of a critical information infrastructure facility is considered. The purpose of the study is to develop a new approach for creating methods for calculating indicators of efficiency, reliability and information security systems. Based on the analysis of the work, a method for calculating efficiency indicators critical information infrastructures of communication systems is proposed and important analytical expressions for further research are obtained. As a result of the study, the main conclusions of the study were obtained, which can be implemented and used in critical infrastructures of communication systems to calculate the quality of functioning public computer and telecommunication systems. На основі архітектурної концепції майбутніх мереж проаналізовано показники ефективності функціонування критичних інформаційних інфраструктур у системі зв’язку. Об’єктом дослідженняє апаратно-програмні комплекси критичних інформаційних інфраструктур спеціального призначення. Критична інформаційна інфраструктура являє собою інформаційно-телекомунікаційні системи зв'язку, технічне обслуговування, надійність і безпека яких необхідні для безпечної роботи підприємств спеціального призначення. Щоб уникнути виникнення різноманітних інцидентів безпеки та надійності, системи зв’язку досліджуваних критичних інфраструктур вимагають постійного аналізу та оновлення правил роботи. Предметом дослідженняє метод розрахунку показників якості функціонування критичних інформаційних інфраструктур систем зв’язку. У даній роботі на прикладі системи зв’язку на основі сучасних технологій розглянуто послідовність дій для аналізу загроз безпеці об’єкта критичної інформаційної інфраструктури. Метою дослідженняє розробка нового підходудо створення методів розрахунку показників ефективності, надійності та інформаційної безпеки систем. Результати. На основі аналізу роботи запропоновано метод розрахунку показників ефективності критичних інформаційних інфраструктур систем зв’язку та отримано важливі аналітичні вирази для подальших досліджень. В результаті проведеного дослідження отримано основні висновки дослідження, які можуть бути реалізовані та використані в критичних інфраструктурах систем зв’язку для розрахунку якості функціонування загальнодоступних комп’ютерних та телекомунікаційних систем.Документ The method of ranking effective project solutionsin conditions of incomplete certainty(Національний технічний університет "Харківський політехнічний інститут", 2024) Bezkorovainyi, Volodymyr; Kolesnyk, Liudmyla; Gopejenko, Viktors; Kosenko, ViktorThe subjectof research in the article is the process of ranking options in support systems for project decision-making under conditions of incomplete certainty. The goalof the work isto increase the efficiency of technologies for automated design of complex systemsdue to the development of a combined method of ranking effective options for building objects in conditions of incomplete certainty of input data. The following tasksare solved in the article: analysis of the current state of the problem of ranking options in support systems for project decision-making; decomposition of problems of system optimization of complex design objects and support of project decision-making; development of a variant ranking method that combines the procedures of lexicographic optimization and cardinal ordering in conditions of incomplete certainty of input data. The following methods are used: systems theory, utility theory, optimization, operations research, interval and fuzzy mathematics. Results.According to the results of the analysis of the problem of supporting project decision-making, the existence of the problem of correctly reducing subsets of effective options for ranking, taking into account factors that are difficult to formalize and the experience of the decision-maker (DM), was established. Decomposition of the problems of system optimization of complex design objects and support for project decision-making was carried out. For the case of ordinalistic presentation of preferences between local criteria, an estimate of the size of the rational reduction of subsets of optimal and suboptimal options for each of the indicators is proposed. Its use allows for one approach to obtain a subset of effective variants of a given capacity for analysis and final selection of the DM. A method of transforming the ordinalistic presentation of preferences between local criteria to their quantitative presentation in the form of weighting coefficients is proposed. Conclusions. The developed methods expand the methodological foundations of the automation of processes supporting the adoption of multi-criteria project decisions. They make it possible to correctly reduce the set of effective alternatives in conditions of incomplete certainty of the input data for the final choice, taking into account factors that are difficult to formalize, knowledge and experience of ODA. The practical use of the obtained results will allow to reduce the time and capacity complexity of the procedures for supporting project decision-making, and due to the use ofthe technology of selection of subsets of effective options with intervally specified characteristics -to guarantee the quality of project decisions and to provide a more complete assessment of them. Предметом дослідження в статті є процес ранжування варіантів у системах підтримки прийняття проєктних рішень в умовах неповної визначеності. Мета роботи–є підвищення ефективності технологій автоматизованого проєктування складних систем за рахунок розроблення комбінованого методу ранжування ефективних варіантів побудови об’єктів в умовах неповної визначеності вхідних даних. У статті вирішуються такі завдання:аналіз сучасного стану проблеми ранжування варіантів у системах підтримки прийняття проєктних рішень;декомпозиція проблем системної оптимізації складних об’єктів проєктування та підтримки прийняття проєктних рішень; розроблення методу ранжуванняваріантів, який об’єднуєпроцедури лексикографічної оптимізації та кардиналістичного впорядкування в умовах неповної визначеності вхідних даних. Використовуються такі методи: теорії систем, теорії корисності, оптимізації, дослідження операцій, інтервальної та нечіткої математики. Результати. За результатамианалізу проблеми підтримки прийняття проєктних рішень встановлено існування проблеми коректного скорочення підмножин ефективних варіантів для ранжування з урахуванням факторів, що важко піддаються формалізації, та досвіду особи, що приймає рішення (ОПР). Виконана декомпозиція проблем системної оптимізації складних об’єктів проєктування та підтримки прийняття проєктних рішень. Для випадку ординалістичного подання переваг між локальними критеріями запропоновано оцінку розміру раціонального скорочення підмножин оптимального та субоптимальних варіантів за кожним з показників. Її використання дозволяє за один підхід отримувати підмножину ефективних варіантів заданої потужності для аналізу й остаточного вибору ОПР. Запропоновано метод трансформації ординалістичного подання переваг між локальними критеріями до їх кількісного подання у вигляді вагових коефіцієнтів. Висновки. Розроблені методи розширюють методологічні засади автоматизації процесів підтримки прийняття багатокритеріальних проєктних рішень. Вони дозволяють здійснювати коректне скорочення множини ефективних альтернатив в умовах неповної визначеності вхідних даних для остаточного вибору з урахуванням факторів, що важко піддаються формалізації, знань і досвіду ОПР. Практичне використання отриманих результатів дозволить скорочувати часову й ємнісну складності процедур підтримки прийняття проєктних рішень, а за рахунок використання технології виділення підмножин ефективних варіантів з інтервально заданими характеристиками –гарантувати якість проєктних рішень та надавати їх більш повну оцінку.