2023 № 1 Системний аналіз, управління та інформаційні технології

Постійне посилання колекціїhttps://repository.kpi.kharkov.ua/handle/KhPI-Press/67240

Переглянути

Результати пошуку

Зараз показуємо 1 - 10 з 17
  • Ескіз
    Документ
    Аналіз інформаційних технологій для дистанційної ідентифікації динамічних об'єктів
    (Національний технічний університет "Харківський політехнічний інститут", 2023) Нікуліна, Олена Миколаївна; Северин, Валерій Петрович; Кондратов, Олексій Михайлович; Рекова, Наталія Юріївна
    Розглянуто проблему ідентифікації динамічних об'єктів з використанням інформаційних технологій дистанційної ідентифікації. Зазначено, що ідентифікація рухомих об'єктів має важливе значення в різних сферах, включаючи автономні транспортні засоби, медичну діагностику та робототехніку. Мета статті полягає в аналізі різних інформаційних технологій виявлення об'єктів, які можуть бути використані в майбутніх дослідженнях з дистанційної ідентифікації. Проведено аналіз методів визначення швидкості як динамічного параметру, аналіз двокрокових та однокрокових методів віддаленої ідентифікації об’єктів, аналіз ранніх методів ідентифікації, а також аналіз методів покращення віддаленої ідентифікації об'єктів. Розглянуто кілька засобів визначення руху об’єктів, зокрема, пропорційно-інтегрально-диференціальний регулятор, метод блоку вирівнювання, фазова кореляція, алгоритми піксельної рекурсії та методи оптичного потоку Лукаса – Канаді, Хорна – Шунка, Фарнбека, густого оптичного потоку. Ці засоби можуть бути використані для ефективного визначення руху об'єктів та ідентифікації їхньої швидкості незалежно від розміру та положення об’єктів. Розглянуті двокрокві та однокрокові методи виявлення об’єктів: метод регіонів зі згортковими нейронними мережами, його покращення, мережі пулінгу просторової піраміди, метод "Ти дивишся лише один раз", однокроковий багаторамковий метод, мережі сітківки, кутова мережа, центральна мережа та трансформер виявлення, які використовують різні підходи для покращення продуктивності та точності виявлення об'єктів. Підкреслено необхідність використання методів згорткових нейронних мереж та мереж пулінгу просторової піраміди для ефективної ідентифікації об’єктів незалежно від їхнього розміру та положення. Пропонуються нові підходи, які дозволяють створювати представлення фіксованої довжини для обробки зображень та регіонів інтересу, а також методи Віоли - Джонса, гістограми орієнтованих градієнтів, моделі деформованих частин. Дослідження в області виявлення об’єктів сприяють розвитку інформаційних технологій та покращенню ефективності систем ідентифікації динамічних об’єктів. Шляхом огляду та аналізу різних методів надані рекомендації для дослідників і практиків, що працюють у галузі дистанційної ідентифікації динамічних об’єктів.
  • Ескіз
    Документ
    Specification formalization of state charts for complex system management
    (Національний технічний університет "Харківський політехнічний інститут", 2023) Nikitin, Dmytro Mykhailovych
    This article presents a formalization approach for the requirements of object-oriented programs with state machines, using a spacecraft control system as a case study. It proposes a state pattern implementation, where each state is represented as a class with clearly defined responsibilities, and the transitions between states are controlled by the state objects themselves. Additionally, the application of model checking, theorem proving, and code generation techniques are discussed. The effectiveness of the proposed approach in ensuring compliance with the specified requirements is demonstrated, while also identifying potential drawbacks and limitations of the approach. The implementation is validated using a range of formal verification techniques, including model checking and theorem proving. The article also discusses how the approach can be extended and applied to other complex systems. Overall, the valuable insights into the formalization of requirements for object-oriented programs with state machines are provided, offering a practical and effective approach for verifying the correctness and completeness of such implementations. The results of this work have important implications for the development of safety-critical systems and can potentially improve the quality and reliability of software systems in various domains. By using mathematical models and rigorous formal methods, it is possible to detect and eliminate errors early in the development process, leading to higher confidence in the correctness of the final product. Future research in this area could explore the use of more advanced techniques, such as modeldriven development and automatic code synthesis, to further streamline the software development process. Additionally, the development of more efficient and user-friendly tools could make these techniques more accessible to a wider range of developers and organizations. Altogether, the combination of formal methods and software engineering has the potential to revolutionize the way software systems are designed, developed, and verified, leading to safer and more reliable software for critical applications.
  • Ескіз
    Документ
    Using OBD-2 technology for vehicle diagnostic and using it in the information system
    (Національний технічний університет "Харківський політехнічний інститут", 2023) Rybitskyi, Oleksandr Maksymovych; Golian, Vira Volodymyrivna; Golian, Nataliia Viktorivna; Dudar, Zoia Volodymyrivna; Kalynychenko, Olga Viktorivna; Nikitin, Dmytro Mykhailovych
    This article considers the research of OBD-2 technology for interaction with on-board vehicle systems, the creation of a unified system that can work with different makes and models of cars. The history of OBD-2 technology, its development, existing standards and their implementation in modern cars is described. Basic diagnostic functions are described, with which you can get information about the car, as well as perform its settings and send various commands to it. In addition, the hardware part of the scanner, its technical features, nuances of interaction with it and the purpose of each of its pins are considered. Also reviewed couple models of scanners that can be used to develop this system. Conclusions are drawn on the practicability of their use, taking into account their capabilities. Existing software analogues, their main functions, advantages and disadvantages are considered. The general concept of interaction with the car via OBD-2, the interaction algorithm and step-by -step analysis of the interaction between the scanner and the car are also considered. The software part of the interaction between the car and the scanner, special codes used to send requests and responses, their further analysis and interpretation in a human-friendly form are considered. The possibilities for the unification of these codes for different car manufacturers and the common code base to create a universal system that will be suitable for different cars from different car manufacturers are highlighted. A model of the software system is proposed, which can embody a large set of useful functions for any motorist and will be compatible with a large number of modern cars equipped with universal diagnostic tools, while using an affordable scanner model without the use of expensive professional equipment.
  • Ескіз
    Документ
    Using long short-term memory networks for natural language processing
    (Національний технічний університет "Харківський політехнічний інститут", 2023) Onyshchenko, Kostiantyn; Daniiel, Yana
    The problem of emotion classification is a complex and non-trivial task of language interpretation due to the natural language structure and its dynamic nature. The significance of the study is in covering the important issue of automatic processing of client feedbacks, collecting opinions and trendcatching. In this work, a number of existing solutions for emotion classification problem were considered, having their shortcomings and advantages illustrated. The evaluation of performance of the considered models was conducted on emotion classification on four emotion classes, namely Happy, Sad, Angry and Others. The model for emotion classification in three-sentence conversations was proposed in this work. The model is based on smileys and word embeddings with domain specificity in state of art conversations on the Internet. The importance of taking into account the information extracted from smileys as an additional data source of emotional coloring is investigated. The model performance is evaluated and compared with language processing model BERT (Bidirectional Encoder Representations from Transformers). The proposed model achieved better performance at classifying emotions comparing to BERT (having F1 score as 78 versus 75). It should be noted, that further study should be performed to enhance the processing by the model of mixed reviews represented by emotion class Others. However, modern performance of models for language representation and understanding did not achieve the human performance. There is a variety of factors to consider when choosing the word embeddings and training methods to design the model architecture.
  • Ескіз
    Документ
    Parsimonious machine learning models in requirements elicitation techniques selection
    (Національний технічний університет "Харківський політехнічний інститут", 2023) Solovei, Olga Leonidivna; Gobov, Denys Andriyovych
    The subject of research in the article is machine learning algorithms used for requirement elicitation technique selection. The goal of the work is to build effective parsimonious machine learning models to predict the using particular elicitation techniques in IT projects that allow using as few predictor variables as possible without a significant deterioration in the prediction quality. The following tasks are solved in the article: design an algorithm to build parsimonious machine learning candidate models for requirement elicitation technique selection based on gathered information on practitioners' experience, assess parsimonious machine learning model accuracy, and design an algorithm for the best candidate model selection. The following methods are used: algorithm theory, statistics theory, sampling techniques, data modeling theory, and science experiments. The following results were obtained: 1) parsimonious machine learning candidate models were built for the requirement elicitation technique selection. They included less number of features that helps in the future to avoid overfitting problems associated with the best-fit models; 2) according to the proposed algorithm for best candidate selection – a single parsimonious model with satisfied performance was chosen. Conclusion: An algorithm is proposed to build parsimonious candidate models for requirement elicitation technique selection that avoids the overfitting problem. The algorithm for the best candidate model selection identifies when a parsimonious model's performance is degraded and decides on the suitable model's selection. Both proposed algorithms were successfully tested with four datasets and can be proposed for their extensions to others.
  • Ескіз
    Документ
    Adaptation of LambdaMART model to semi-supervised learning
    (Національний технічний університет "Харківський політехнічний інститут", 2023) Yamkovyi, Klym Serhiyovych
    The problem of information searching is very common in the age of the internet and Big Data. Usually, there are huge collections of documents and only multiple percent of them are relevant. In this setup brute-force methods are useless. Search engines help to solve this problem optimally. Most engines are based on learning to rank methods, i.e. first of all algorithm produce scores for documents based on they feature and after that sorts them according to the score in an appropriate order. There are a lot of algorithms in this area, but one of the most fastest and a robust algorithm for ranking is LambdaMART. This algorithm is based on boosting and developed only for supervised learning, where each document in the collection has a rank estimated by an expert. But usually, in this area, collections contain tons of documents and their annotation requires a lot of resources like time, money, experts, etc. In this case, semi-supervised learning is a powerful approach. Semi-supervised learning is an approach to machine learning that combines a small amount of labeled data with a large amount of unlabeled data during training. Unlabeled data, when used in combination with a small quantity of labeled data, can produce significant improvement in learning accuracy. This paper is dedicated to the adaptation of LambdaMART to semi-supervised learning. The author proposes to add different weights for labeled and unlabeled data during the training procedure to achieve higher robustness and accuracy. The proposed algorithm was implemented using Python programming language and LightGBM framework that already has supervised the implementation of LambdaMART. For testing purposes, multiple datasets were used. One synthetic 2D dataset for a visual explanation of results and two real-world datasets MSLR-WEB10K by Microsoft and Yahoo LTRC.
  • Ескіз
    Документ
    Концептуальна ментальна модель пояснення в системі штучного інтелекту
    (Національний технічний університет "Харківський політехнічний інститут", 2023) Чалий, Сергій Федорович; Лещинська, Ірина Олександрівна
    Предметом дослідження є процеси формування пояснень щодо отриманих в системах штучного інтелекту рішень. Для вирішення проблеми непрозорості прийняття рішень в таких системах користувачі мають отримати пояснення щодо отриманих рішень. Пояснення дозволяє довіряти цим рішенням та забезпечити їх використання на практиці. Мета роботи полягає у розробці концептуальної ментальної моделі пояснення для визначення базових залежностей, що визначають зв’язок між вхідними даними, а також діями з отримання результату в інтелектуальній системі, та її кінцевим рішенням. Для досягнення мети вирішуються такі задачі: структуризація підходів до побудови ментальних моделей пояснень; побудова концептуальної ментальної моделі пояснення на основі об’єднаного представлення знань користувача.. Висновки. Виконано структуризацію підходів до побудови ментальних моделей пояснень в інтелектуальних системах. Ментальні моделі призначені для відображення сприйняття пояснення користувачем. Виділено каузальний, статистичний, семантичний та концептуальний підходи до побудови ментальних моделей пояснення. Показано, що концептуальна модель задає узагальнені схеми та принципи щодо процесу функціонування інтелектуальної системи. Її подальша деталізація виконується на основі каузального підходу у випадку побудови пояснення для процесів, статистичного підходу при побудові пояснення щодо результату роботи системи, а також семантичного при узгодженні пояснення із базовими знаннями користувача. Запропоновано трирівневу концептуальну ментальну модель пояснення, що містить рівні концепції щодо базових принципів функціонування системи штучного інтелекту, пояснення, що деталізує цю концепцію у прийнятному та зрозумілому для користувача вигляді, а також базових знань про предметну область, які є основою для формування пояснення. У практичному аспекті запропонована модель створює умови для побудови та упорядкування множини узгоджених пояснень, які описують процес та результат роботи інтелектуальної системи з урахуванням можливості їх сприйняття користувачем.
  • Ескіз
    Документ
    Моделювання та аналіз кодерів завадостійких каскадних кодів для динамічних систем
    (Національний технічний університет "Харківський політехнічний інститут", 2023) Нікуліна, Олена Миколаївна; Северин, Валерій Петрович; Шаров, Владислав Олегович
    Для різних каналів передачі інформації, що можуть використовуватись у локальних системах управління широкого спектру процесів, необхідні доступні, здатні до масштабування й не витратні методи передачі, що дозволяють передавати необхідну інформацію достовірно без помилок. Помилки, що трапляються у дискретних безперервних каналах зв’язку – це основна перепона для достовірної передачі даних. Основні причини виникнення помилок – загасання сигналу, шум та різні перешкоди. Як результат аналізу статистики помилок у дискретних каналах передачі даних, було зроблено висновок, що однократні та двократні помилки трапляються у абсолютній більшості випадків. Запропоновано боротись із помилками шляхом використання завадостійкого кодування. Серед завадостійких кодів виділені надлишкові блокові роздільні систематичні коди, до яких відноситься код Хеммінга. В основу моделі завадостійкого кодування запропоновано покласти використання систематичного коду Хеммінга з подальшим каскадним кодуванням шляхом додавання біту перевірки на парність. Використана модель надала можливість боротись з усіма найбільш ймовірними випадками виникнення помилок. Оскільки дана модель кодування повинна гнучко використовуватись в різних системах, необхідним критерієм моделі є її універсальність. Тому виконане тестування моделі на вибірці з кодовими комбінаціями різної кількості бітів. Метою даної статті є аналіз залежності часу виконання процедури кодування для кодерів різного рівня: окремого кодеру першого ступеню, а також кодеру першого ступеню з додаванням кодеру другого ступеню. Проведено експерименти з великою вибіркою, які були у подальшому проаналізовані та інтерпретовані. Оскільки модель у результаті експериментів виявила себе гнучкою, простою, стабільною та ефективною, а також процес боротьби із завадами шляхом використання каскадних кодів добре себе зарекомендував у світовій практиці, модель рекомендовано для використання у різних інформаційних управляючих системах. Наведена реалізація кодеру для завадостійкої передачі даних.
  • Ескіз
    Документ
    Геометричне моделювання трас і потоків
    (Національний технічний університет "Харківський політехнічний інститут", 2023) Левтеров, Андрій Іванович; Плєхова, Ганна Анатоліївна; Костікова, Марина Володимирівна; Окунь, Антон Олександрович
    Досліджено та розроблено математичні моделі для вирішення задач оптимізації з’єднання в неодносвязних областях за типових технологічних обмежень на геометричні та топологічні параметри трас, насамперед, на кривизну та кількість вигинів. Моделі пов'язані з існуючими та перспективними топогеодезичними моделями полігональних зображень територій. Розв'язання задач зв'язку передбачає пошук оптимальних траєкторій маршрутів і сіток у межах необмежених геометричних форм. Для цього потрібна розробка безлічі загальних моделей як полів, де здійснюються зв’язки. Сполучення можуть бути різних типів, таких як гнучкі, манхеттенські, рівні, тверді, а також маршрути інших типів. Смеляков та Алісейко (Плєхова Г. А.) зауважують, що глобальне та локальне регулювання геометричних зв’язків для розв’язання задач зв’язків можна представити як загальну оптимізаційну задачу зв’язку, яка визначається як задача вибору < , R >, де R – набір альтернатив,  – принцип оптимальності. При цьому набір можна представити як сукупність фазового простору  та обмежень Q, які застосовуються до параметрів фазового простору . У свою чергу, доцільно уявити, що фазовий простір  є декартовим добутком  = X*Y*Z*U вихідних даних X, збурень Y, параметрів керування U та результатів Z. Аналіз задачі свідчить про те, що насамперед ефективність моделювання фазового простору  пов'язана з описом вихідних даних X про площу F і простір L можливих магістралей в F. Питання досліджується як розробка побудови структур моделей та методології їх використання, які б уможливили конструктивне та ефективне (в обчислювальній техніці) моделювання та дослідження різноманітних моделей та алгоритмів, які зберігають геометричність та інваріантність моделей, які необхідні для їх конкретного використання в умовах прийнятності використання різних вихідних структур даних. Дане дослідження присвячене розв’язанню задачі розробки моделі для задач зв’язку в рамках геометричного проектування.
  • Ескіз
    Публікація
    An algorithm for NLP-based similarity measurement of activity labels in a database of business process models
    (Національний технічний університет "Харківський політехнічний інститут", 2023) Kopp, Andrii Mykhailovych; Orlovskyi, Dmytro Leonidovych
    Business process modeling is an important part of organizational management since it enables companies to obtain insights into their operational workflows and find opportunities for development. However, evaluating and quantifying the similarity of multiple business process models can be difficult because these models frequently differ greatly in terms of structure and nomenclature. This study offers an approach that uses natural language processing techniques to evaluate the similarity of business process models in order to address this issue. The algorithm uses the activity labels given in the business process models as input to produce textual descriptions of the associated business processes. The algorithm includes various preprocessing stages to guarantee that the textual descriptions are correct and consistent. First, single words are retrieved and transformed to lower case from the resulting textual descriptions. After that, all non-alphabetic and stop words are removed from the retrieved words. The remaining words are then stemmed, which includes reducing them to their base form. The algorithm evaluates the similarity of distinct business process models using similarity measures, including Jaccard, Sorensen – Dice, overlap, and simple matching coefficients, after the textual descriptions have been prepared and preprocessed. These metrics provide a more detailed understanding of the similarities and differences across various business process models, which can then be used to influence decision-making and business process improvement initiatives. The software implementation of the proposed algorithm demonstrates its usage for similarity measurement in a database of business process models. Experiments show that the developed algorithm is 31% faster than a search based on the SQL LIKE clause and allows finding 18% more similar models in the business process model database.