Вісники НТУ "ХПІ"
Постійне посилання на розділhttps://repository.kpi.kharkov.ua/handle/KhPI-Press/2494
З 1961 р. у ХПІ видається збірник наукових праць "Вісник Харківського політехнічного інституту".
Згідно до наказу ректора № 158-1 від 07.05.2001 року "Про упорядкування видання вісника НТУ "ХПІ", збірник був перейменований у Вісник Національного Технічного Університету "ХПІ".
Вісник Національного технічного університету "Харківський політехнічний інститут" включено до переліку спеціалізованих видань ВАК України і виходить по серіях, що відображають наукові напрямки діяльності вчених університету та потенційних здобувачів вчених ступенів та звань.
Зараз налічується 30 діючих тематичних редколегій. Вісник друкує статті як співробітників НТУ "ХПІ", так і статті авторів інших наукових закладів України та зарубіжжя, які представлені у даному розділі.
Переглянути
4 результатів
Результати пошуку
Документ Метод можливісного оцінювання пояснення в системі штучного інтелекту(Національний технічний університет "Харківський політехнічний інститут", 2023) Чалий, Сергій Федорович; Лещинський, Володимир ОлександровичПредметом дослідження є процеси формування пояснень щодо рішення системи штучного інтелекту. Пояснення використовуються для того, щоб користувач зрозумів процес отримання результату і міг більш ефективно застосовувати інтелектуальну інформаційну систему для формування практично прийнятих для нього рішень. Мета роботи полягає у розробці методу оцінки пояснень з урахуванням відмінностей у вхідних даних та відповідному рішенні системи штучного інтелекту. Вирішення цієї задачі дає можливість оцінити відповідність пояснення щодо внутрішньому механізму прийняття рішення в інтелектуальній інформаційній системі незалежно від рівня знань користувача щодо особливостей формування та використання такого рішення. Для досягнення мети вирішуються такі задачі: структуризація оцінки пояснень в залежності від рівня їх деталізації з урахуванням їх відповідності процесу прийняття рішення в інтелектуальній системі та рівню сприйняття користувача такої системи; розробка методу оцінки пояснень на основі їх відповідності процесу прийняття рішення в інтелектуальній системі. Висновки. Виконано структуризацію оцінки пояснень в залежності від рівня їх деталізації. Виділено рівні асоціативних залежностей, прецедентів, каузальних залежностей та інтерактивний, що визначають різний ступінь деталізації пояснень. Показано, що асоціативний та каузальний рівні деталізації пояснень можуть бути оцінені з використанням числових, ймовірнісних або можливісних показників. Прецедентний та інтерактивний рівні потребують суб'єктивної оцінки на основі опитування користувачів системи штучного інтелекту. Розроблено метод можливісного оцінювання відповідності пояснень процесу прийняття рішень в інтелектуальній системі з урахуванням залежностей між вхідними даними та рішенням інтелектуальної системи. Метод містить етапи оцінювання чутливості, коректності та складності пояснення на основі порівняння значень та кількості використаних у поясненні вхідних даних. Метод дає можливість комплексно оцінити пояснення з позицій стійкості до несуттєвих змін у вхідних даних, відповідності пояснення отриманому результату, а також складності обчислення пояснення. У аспекті практичного застосування метод дає можливість мінімізувати кількість вхідних змінних для пояснення при задоволенні обмеження на чутливість пояснення, що створює умови для більш ефективного формування тлумачення на основі використання підмножини ключових вхідних змінних, які мають суттєвий вплив на отримане в інтелектуальній системі рішення.Документ Концептуальна ментальна модель пояснення в системі штучного інтелекту(Національний технічний університет "Харківський політехнічний інститут", 2023) Чалий, Сергій Федорович; Лещинська, Ірина ОлександрівнаПредметом дослідження є процеси формування пояснень щодо отриманих в системах штучного інтелекту рішень. Для вирішення проблеми непрозорості прийняття рішень в таких системах користувачі мають отримати пояснення щодо отриманих рішень. Пояснення дозволяє довіряти цим рішенням та забезпечити їх використання на практиці. Мета роботи полягає у розробці концептуальної ментальної моделі пояснення для визначення базових залежностей, що визначають зв’язок між вхідними даними, а також діями з отримання результату в інтелектуальній системі, та її кінцевим рішенням. Для досягнення мети вирішуються такі задачі: структуризація підходів до побудови ментальних моделей пояснень; побудова концептуальної ментальної моделі пояснення на основі об’єднаного представлення знань користувача.. Висновки. Виконано структуризацію підходів до побудови ментальних моделей пояснень в інтелектуальних системах. Ментальні моделі призначені для відображення сприйняття пояснення користувачем. Виділено каузальний, статистичний, семантичний та концептуальний підходи до побудови ментальних моделей пояснення. Показано, що концептуальна модель задає узагальнені схеми та принципи щодо процесу функціонування інтелектуальної системи. Її подальша деталізація виконується на основі каузального підходу у випадку побудови пояснення для процесів, статистичного підходу при побудові пояснення щодо результату роботи системи, а також семантичного при узгодженні пояснення із базовими знаннями користувача. Запропоновано трирівневу концептуальну ментальну модель пояснення, що містить рівні концепції щодо базових принципів функціонування системи штучного інтелекту, пояснення, що деталізує цю концепцію у прийнятному та зрозумілому для користувача вигляді, а також базових знань про предметну область, які є основою для формування пояснення. У практичному аспекті запропонована модель створює умови для побудови та упорядкування множини узгоджених пояснень, які описують процес та результат роботи інтелектуальної системи з урахуванням можливості їх сприйняття користувачем.Документ Модель пояснення в інтелектуальній системі на локальному, груповому та глобальному рівнях деталізації(Національний технічний університет "Харківський політехнічний інститут", 2022) Чалий, Сергій Федорович; Лещинський, Володимир ОлександровичПредметом дослідження є процеси формування пояснень в інтелектуальних інформаційних системах. В сучасних інтелектуальних системах використовуються методи машинного навчання. Процес отримання рішення, сформованих на основі таких методів, є зазвичай непрозорим для користувача. Внаслідок такої непрозорості користувач може не довіряти тим рішенням, які запропонувала інтелектуальна система. Це знижує ефективність її використання. Для підвищення прозорості рішень використовуються пояснення. Пояснення представляється знаннями щодо причин формування результату в інтелектуальній системі, а також щодо причин окремих дій у процесі формування результату. Також пояснення може містити знання щодо впливу окремих функцій на отриманих інтелектуальною системою результат. Тому пояснення доцільно формувати на різних рівнях деталізації з тим, щоб показати як узагальнені причини та впливи на отримане рішення, так і причини вибору окремих проміжних дій. Мета роботи полягає в розробці узагальненої моделі пояснення з урахуванням станів та рівнів деталізації процесу прийняття рішення в інтелектуальній системі для побудови пояснень на основі відомих даних щодо послідовності станів та властивостей цих станів. Для досягнення мети вирішуються такі задачі: структуризація властивостей пояснень; визначення можливостей підходів до побудови пояснень на основі станів та структури процесу формування рішення, а також на основі вхідних даних; побудова моделі пояснення. Висновки. Запропоновано узагальнену модель пояснення в інтелектуальній системі для локального, групового та глобального рівнів деталізації процесу прийняття рішення .Модель представляється упорядкованою послідовністю зважених залежностей між подіями або станами процесу прийняття рішення. Модель орієнтовано на представлення можливості в рамках глобального пояснення виділити локальне пояснення та представити ланцюжок групових пояснень між подіями отримання вхідних даних та результуючого рішення. У практичному плані запропонована модель призначена для побудови пояснень з використанням підходів на основі спрощення процесу функціонування інтелектуальної системи та на основі виділення впливу окремих функцій та дій на кінцевий результат. Додаткові можливості моделі пов’язані із деталізацією подій процесу прийняття рішення з виділення окремих змінних, які характеризують стан цього процесу, що дає можливість формувати пояснення на основі використання відомих концепцій та понять у предметній області.Документ Модель пояснення в інтелектуальній інформаційній системі на основі концепції узгодженості знань(Національний технічний університет "Харківський політехнічний інститут", 2020) Чалий, Сергій Федорович; Лещинський, Володимир Олександрович; Лещинська, Ірина ОлександрівнаПредметом дослідження є процеси побудови пояснень щодо отриманих результатів в інтелектуальних інформаційних системах. Пояснення роблять прозорим процес створення результуючої рекомендації, формують умови для створення користувачем причинно-наслідкових зв’язків між результатом виводу та поточними задачами, для вирішення яких була використана інтелектуальна система. Мета полягає в розробці моделі пояснення в інтелектуальній системі з можливістю забезпечити узгоджене з результатами роботи такої системи витлумачення з урахуванням контекстно-орієнтованих вимог щодо потреб користувачів. Для досягнення поставленої мети вирішуються задачі визначення вимог до пояснення щодо результатів роботи інформаційної системи, та розробки моделі пояснення на базі принципів узгодження знань з тим, щоб отримати рекомендації на основі відповідності фактів, гіпотез, результатів. Показано, що при узгодженні інтересів користувача та можливостей інтелектуальної системи необхідно визначити деталізацію знань з урахуванням інтервалу актуальності даних та знань, а також фінансових та технічних та інших особливостей використання отриманих результатів. Запропоновано модель пояснення в інтелектуальній системі на базі узгодження знань та даних. Модель містить множини узгоджених фактів, гіпотез та результатів. Узгодження виконується для гіпотез, які є підмножинами інших гіпотез, на основі пояснень гіпотез через факти та інші гіпотези, а також на базі відповідності між собою отриманих результатів та гіпотез. Моделі дає можливість обмежити використання неявних та неточних знань в рамках виводу лише їх узгодженою підмножиною. У практичному плані використання моделі орієнтовно на побудову пояснень згідно ступеню абстракції, рівня деталізації опису предметної області, а також з урахуванням вибраного аспекту витлумачення отриманої рекомендації. В цілому формування пояснень на основі узгодження знань підвищує довіру користувачів та створює умови для ефективного використання отриманих рекомендацій.