Veuillez utiliser cette adresse pour citer ce document : http://dspace.univ-tiaret.dz:80/handle/123456789/16901
Titre: Classification du Trafic Réseau :Vers une Amélioration de la Qualité de Service à l'Aide de Deep Learning
Auteur(s): Ouadah, Bochra
Boughaddou, Bochra
Mots-clés: Internet
Classification Du Trafic Réseau
Apprentissage Automatique
Apprentissage Profond
Date de publication: jui-2025
Editeur: Université Ibn Khaldoun –Tiaret
Résumé: L'augmentation significative du trafic réseau résultant de la multiplication des services numériques rend sa gestion de plus en plus complexe. Identifier et classer précisément les flux Internet selon leurs caractéristiques devient essentiel pour assurer une bonne Qualité de Service (QoS), renforcer la sécurité, ainsi que faciliter la gestion et la planification des réseaux. Les approches classiques, telles que la classification par numéros de ports ou l'analyse approfondie des contenus des paquets, présentent désormais d’importantes limites face aux applications modernes et aux flux cryptés. En réponse à ces défis, les techniques d’apprentissage automatique apparaissent comme des solutions prometteuses, exploitant efficacement les caractéristiques statistiques et temporelles des flux réseau. Dans ce contexte, notre étude propose une méthodologie hybride hiérarchique novatrice nommée Deep HyCLASS-Net, combinant des approches de machine learning et des réseaux de neurones profonds. Cette approche intègre un filtrage initial du trafic à l’aide du classificateur CatBoost, réputé pour sa robustesse face aux données complexes, suivi d'une classification fine par des architectures optimisées CNN et CNN-LSTM. Cette stratégie hybride garantit une gestion efficace et fiable de la QoS dans les infrastructures réseau contemporaines
URI/URL: http://dspace.univ-tiaret.dz:80/handle/123456789/16901
Collection(s) :Master

Fichier(s) constituant ce document :
Fichier Description TailleFormat 
TH.M.INF.2025.34.pdf1,76 MBAdobe PDFVoir/Ouvrir


Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.