Сучасні інформаційні системи
Постійне посилання на розділhttps://repository.kpi.kharkov.ua/handle/KhPI-Press/62915
Офіційний сайт http://ais.khpi.edu.ua/
У журналі публікуються результати досліджень з експлуатації та розробки сучасних інформаційних систем у різних проблемних галузях.
Рік заснування: 2017. Періодичність: 4 рази на рік. ISSN 2522-9052 (Print)
Новини
Включений до "Переліку наукових фахових видань України, в яких можуть публікуватися результати дисертаційних робіт на здобуття наукових ступенів доктора і кандидата наук" (технічні науки) наказом Міністерства освіти і науки України від 04.04.2018 № 326 (додаток 9, п. 56).
Переглянути
3 результатів
Результати пошуку
Документ Method of testing large numbers for primality(Національний технічний університет "Харківський політехнічний інститут", 2024) Pevnev, Vladimir; Yudin, Оles; Sedlaček, Peter; Kuchuk, NinaThe current stage of scientific and technological development entails ensuring information security across all domains of human activity. Confidential data and wireless channels of remote control systems are particularly sensitive to various types of attacks. In these cases, various encryption systems are most commonly used for information protection, among which large prime numbers are widely utilized. The subject of research involves methods for generating prime numbers, which entail selecting candidates for primality and determining the primality of numbers. The subject of research involves methods for generating prime numbers, which choice selecting candidates for primality and determining the primality of numbers. The objective of the work is the development and theoretical justification of a method for determining the primality of numbers and providing the results of its testing. The aim to address the following main tasks: analyze the most commonly used and latest algorithms, methods, approaches, and tools for primality testing among large numbers; propose and theoretically justify a method for determining primality for large numbers; and conduct its testing. To achieve this aim, general scientific methods have been applied, including analysis of the subject area and mathematical apparatus, utilization of set theory, number theory, fields theory, as well as experimental design for organizing and conducting experimental research. The following results have been obtained: modern methods for selecting candidates for primality testing of large numbers have been analyzed, options for generating large prime numbers have been considered, and the main shortcomings of these methods for practical application of constructed prime numbers have been identified. Methods for determining candidates for primality testing of large numbers and a three-stage method for testing numbers for primality have been proposed and theoretically justified. The testing conducted on the proposed primality determination method has demonstrated the correctness of the theoretical conclusions regarding the feasibility of applying the proposed method to solve the stated problem. Conclusions. The use of a candidate primality testing strategy allows for a significant reduction in the number of tested numbers. For numbers of size 200 digits, the tested numbers is reduced to 8.82%. As the size of the tested numbers increases, their quantity will decrease. The proposed method for primality testing is sufficiently simple and effective. The first two stages allow for filtering out all composite numbers except for Carmichael numbers. In the first stage, using the first ten prime numbers filters out over 80 percent of the tested numbers. In the second stage, composite numbers with factors greater than 29 are sieved out. In the third stage, Carmichael numbers are sieved out. The test is polynomial, deterministic, and unconditional. Сучасний етап розвитку науки та техніки передбачає забезпечення інформаційної безпеки у всіх сферах людської діяльності. Найбільш чутливими до різноманітних атак є конфіденційні дані та бездротові канали систем дистанційного управління. Для захисту інформації у цих випадках найчастіше використовуються різноманітні системи шифрування, серед яких широко використовуються прості числа великої розмірності. Предметом досліджень є методи побудови простих чисел, які полягають у виборі кандидатів на простоту та визначенні простоти чисел. Метою роботи є розробка та теоретичне обґрунтування методу визначення простоти чисел і надання результатів його тестування. У статті передбачається вирішити такі основні завдання: проаналізувати найбільш уживані та найновіші алгоритми, методи, підходи та засоби визначення кандидатів на простоту серед чисел великої розмірності, запропонувати та теоретично обґрунтувати метод визначення простоти для великих чисел, провести його тестування. Для досягнення мети застосовано загальнонаукові методи: аналіз предметної області та математичний апарат, використано теорії множин, чисел та полів, планування експерименту для організації та проведення експериментальних досліджень. Здобуто такі результати:проаналізовано сучасні методи вибору кандидатів на перевірку великих чисел на простоту, розглянуті варіанти генерації великих простих чисел, виявлені основні недоліки цих методів для практичного застосування побудованих таким чином простих чисел. Запропоновано та теоретично обґрунтовано метод визначення кандидатів для перевірки великих чисел на простоту та триетапний метод для перевірки чисел на простоту. Проведене тестування запропонованого методу визначення простоти показало правильність теоретичних висновків про можливість застосування запропонованого методу для вирішення поставленої задачі. Висновки: Використання стратегії вибору кандидата на простоту дозволяє значно зменшити кількість перевірених чисел. На числах розміром у 200 десятинних знаків кількість чисел для перевірки зменшується до 8,82%. Зі зростанням розміру чисел для перевірки їх кількість буде зменшуватися. Запропонований метод перевірки чисел на простоту достатньо простий та ефективний. Перші два етапи дозволяють відсіяти всі складені числа, за винятком чисел Кармайкла. При цьому на першому етапі при використанні перших десяти простих чисел відсівається більше 80% чисел для перевірки. На другому етапі проводиться відсів складених чисел з складниками більше 29. На третьому етапі відсіюються числа Кармайкла. Тест є поліноміальним, детермінованим та безумовним.Документ Method for generating a data set for training a neural network in a transport conveyor model(Національний технічний університет "Харківський політехнічний інститут", 2024) Pihnastyi, Oleh; Kozhevnikov, Georgii; Burduk, AnnaThe object of research is a stochastic input flow of material coming in the input of a conveyor-type transport system. Subject of research is the development of a method for generating values of the stochastic input material flow of transport conveyor to form a training data set for neural network models of the transport conveyor. The goal of the research is to develop a method for generating random values to construct implementations of the input material flow of a transport conveyor that have specified statistical characteristics calculated based on the results of previously performed experimental measurements. The article proposes a method for generating a data set for training a neural network for a model of a branched, extended transport conveyor. A method has been developed for constructing implementations of the stochastic input flow of material of a transport conveyor. Dimensionless parameters are introduced to determine similarity criteria for input material flows. The stochastic input material flow is presented as a series expansion in coordinate functions. To form statistical characteristics, a material flow implementation based on the results of experimental measurements is used. As a zero approximation for expansion coefficients, that are random variables, the normal distribution law of a random variable is used. Conclusion. It is shown that with an increase in the time interval for the implementation of the input material flow, the correlation function of the generated implementation steadily tends to the theoretically determined correlation function. The length of the time interval for the generated implementation of the input material flow was estimated. Об’єкт дослідження –стохастичний вхідний потік матеріалу, що надходить на вхід транспортної системи конвеєрного типу. Предмет дослідження —розробка методу генерування значень стохастичного потоку вхідного матеріалу транспортного конвеєра для формування навчального набору даних в моделях транспортного конвеєра, заснованих на нейронній мережі. Метою дослідження є розробка методу генерування випадкових значень для побудови реалізацій вхідного потоку матеріалу транспортного конвеєра, що має задані статистичні характеристики, розраховані на основі результатів попередньо виконаних експериментальних вимірювань. Результати дослідження. У статті пропонується метод формування набору даних для навчання моделі нейромереж розгалуженого протяжного транспортного конвеєра. Розроблено метод побудови реалізацій стохастичного вхідного потоку матеріалу транспортного конвеєра. Введено безрозмірні параметри, що дозволяють визначити критерії подібності для вхідних потоків матеріалу. Стохастичний вхідний потік матеріалу представлений у вигляді розкладання в ряд координатних функцій. Для формування статистичних характеристик використано реалізацію потоку матеріалу, побудовану на результатах експериментальних вимірювань. Як нульове наближення для коефіцієнтів розкладання, що є випадковими величинами, використано нормальний закон розподілу випадкової величини. Показано, що зі збільшенням часового інтервалу для реалізації вхідного потоку матеріалу функція кореляції згенерованої реалізації наближається до теоретично визначеної функції кореляції. Виконано оцінку довжини часового інтервалу для згенерованої реалізації вхідного потоку матеріалу.Документ Integration of IoT with cloud, fog, and edge computing: a review(Національний технічний університет "Харківський політехнічний інститут", 2024) Kuchuk, Heorhii; Malokhvii, EduardPurpose of review. The paper provides an in-depth exploration of the integration of Internet of Things (IoT) technologies with cloud, fog, and edge computing paradigms, examining the transformative impact on computational architectures. Approach to review. Beginning with an overview of IoT's evolution and its surge in global adoption, the paper emphasizes the increasing importance of integrating cloud, fog, and edge computing to meet the escalating demands for real-time data processing, low-latency communication, and scalable infrastructure in the IoT ecosystem. The survey meticulously dissects each computing paradigm, highlighting the unique characteristics, advantages, and challenges associated with IoT, cloud computing, edge computing, and fog computing. The discussion delves into the individual strengths and limitations of these technologies, addressing issues such as latency, bandwidth consumption, security, and data privacy. Further, the paper explores the synergies between IoT and cloud computing, recognizing cloud computing as a backend solution for processing vast data streams generated by IoT devices. Review results. Challenges related to unreliable data handling and privacy concerns are acknowledged, emphasizing the need for robust security measures and regulatory frameworks. The integration of edge computing with IoT is investigated, showcasing the symbiotic relationship where edge nodes leverage the residual computing capabilities of IoT devices to provide additional services. The challenges associated with the heterogeneity of edge computing systems are highlighted, and the paper presents research on computational offloading as a strategy to minimize latency in mobile edge computing. Fog computing's intermediary role in enhancing bandwidth, reducing latency, and providing scalability for IoT applications is thoroughly examined. Challenges related to security, authentication, and distributed denial of service in fog computing are acknowledged. The paper also explores innovative algorithms addressing resource management challenges in fog-IoT environments. Conclusions. The survey concludes with insights into the collaborative integration of cloud, fog, and edge computing to form a cohesive computational architecture for IoT. The future perspectives section anticipates the role of 6G technology in unlocking the full potential of IoT, emphasizing applications such as telemedicine, smart cities, and enhanced distance learning. Cybersecurity concerns, energy consumption, and standardization challenges are identified as key areas for future research. Стаття містить поглиблене дослідження інтеграції технологій Інтернету речей (IoT) із парадигмами хмарних, туманних і периферійних обчислень, досліджуючи трансформаційний вплив на обчислювальні архітектури. Підхід до огляду. Починаючи з огляду еволюції IoT та його стрімкого поширення в усьому світі, документ підкреслює зростаючу важливість інтеграції хмарних, туманних і периферійних обчислень для задоволення зростаючих вимог до обробки даних у реальному часі, зв’язку з низькою затримкою та масштабованої інфраструктури в екосистема IoT. Опитування ретельно аналізує кожну обчислювальну парадигму, підкреслюючи унікальні характеристики, переваги та проблеми, пов’язані з IoT, хмарними обчисленнями, периферійними обчисленнями та туманними обчисленнями. Обговорення заглиблюється в індивідуальні переваги та обмеження цих технологій, розглядаючи такі проблеми, як затримка, споживання пропускної здатності, безпека та конфіденційність даних. Крім того, у статті досліджується взаємодія між IoT і хмарними обчисленнями, визнаючи хмарні обчислення серверним рішенням для обробки великих потоків даних, створених пристроями IoT. Результати огляду.Визнаються проблеми, пов’язані з ненадійною обробкою даних і проблемами конфіденційності, наголошується на необхідності надійних заходів безпеки та нормативної бази. Досліджується інтеграція периферійних обчисленьз IoT, демонструючи симбіотичні відносини, коли крайові вузли використовують залишкові обчислювальні можливості пристроїв IoT для надання додаткових послуг. Висвітлено проблеми, пов’язані з неоднорідністю периферійних обчислювальних систем, і в статті представлено дослідження обчислювального розвантаження як стратегії мінімізації затримки в мобільних периферійних обчисленнях. Проміжна роль Fog Computing у збільшенні пропускної здатності, зменшенні затримки та забезпеченні масштабованості для програм IoT ретельно досліджується. Визнаються проблеми, пов’язані з безпекою, автентифікацією та розподіленою відмовою в обслуговуванні в туманних обчисленнях. У документі також досліджуються інноваційні алгоритми вирішення проблем управління ресурсами в середовищах fog-IoT. Висновки. Опитування завершується розумінням спільної інтеграції хмарних, туманних і периферійних обчислень для формування цілісної обчислювальної архітектури для IoT. Розділ про перспективи передбачає роль технології 6G у розкритті повного потенціалу IoT, акцентуючи увагу на таких програмах, як телемедицина, розумні міста та покращене дистанційне навчання. Питання кібербезпеки, споживання енергії та проблеми стандартизації визначені як ключові сфери майбутніх досліджень.