2024 № 2 Сучасні інформаційні системи

Постійне посилання колекціїhttps://repository.kpi.kharkov.ua/handle/KhPI-Press/80767

Переглянути

Результати пошуку

Зараз показуємо 1 - 1 з 1
  • Ескіз
    Документ
    DeepFake detection using transfer learning-based Xception model
    (Національний технічний університет "Харківський політехнічний інститут", 2024) Rajakumareswaran, Velusamy; Raguvaran, Surendran; Chandrasekar, Venkatachalam; Rajkumar, Sugavanam; Arun, Vijayakumar
    Justification of the purpose of the research. In recent times, several approaches for face manipulation in videos have been extensively applied and availed to the public which makes editing faces in video easy for everyone effortlessly with realistic efforts. While beneficial in various domains, these methods could significantly harm society if employed to spread misinformation. So, it is also vital to properly detect whether a face has been distorted in a video series. To detect this deepfake, convolutional neural networks can be used in past works. However, it needs a greater number of parameters and more computations. So, to overcome these limitations and to accurately detect deepfakes in videos, a transfer learning-based model named the Improved Xception model is suggested. Obtained results. This model is trained using extracted facial landmark features with robust training. Moreover, the improved Xception model's detection accuracy is evaluated alongside ResNet and Inception, considering model loss, accuracy, ROC, training time, and the Precision-Recall curve. The outcomes confirm the success of the proposed model, which employs transfer learning techniques to identify fraudulent videos. Furthermore, the method demonstrates a noteworthy 5% increase in efficiency compared to current systems. Обґрунтування мети дослідження. Останнім часом кілька підходів до маніпулювання обличчями у відео були широко застосовані та доступні для громадськості, що робить редагування обличь у відео легким для всіх без особливих зусиль із реалістичними зусиллями. Незважаючи на користь у різних сферах, ці методи можуть завдати значної шкоди суспільству, якщо використовувати їх для поширення дезінформації. Тому також важливо правильно визначити, чи було спотворене обличчя у відеоряді. Щоб виявити цей глибокий фейк, у минулих роботах можна використовувати згорточні нейронні мережі. Однак для цього потрібна більша кількість параметрів і більше обчислень. Тому для подолання цих обмежень і точного виявлення глибоких фейків у відео пропонується модель на основі навчання передачі під назвою Improved Xception model. Отримані результати.Ця модель навчена за допомогою витягнутих орієнтирів обличчя з надійним тренуванням. Крім того, покращена точність виявлення моделі Xception оцінюється разом із ResNet і Inception, враховуючи втрати моделі, точність, ROC, час навчання та криву Precision-Recall. Результати підтверджують успіх запропонованої моделі, яка використовує методи навчання передачі для виявлення шахрайських відео. Крім того, метод демонструє помітне підвищення ефективності на 5% порівняно з поточними системами.