Thèse de Doctorat
Permanent URI for this collection
Browse
Browsing Thèse de Doctorat by Title
Now showing 1 - 20 of 70
Results Per Page
Sort Options
- ItemA RobustWatermarking Approach for Images Authentication and Traceability.(2019-03-13) BELFERDI WassilaDigital watermarking is a promising technology that has shown the ability to achieve the security and protection of image data.The enormous growth, use, and distribution of these images reveal security threats with legal and ethical complexities. Though, despite the wide interest that has, digital watermarking still not been widely adopted in some applications like image authentication with restoration ability. Existing watermarking schemes often suffer from technical and security flaws. Validation of the suitability of those schemes for an application becomes more challenging. One main reason for these problems is the compromise between the watermarked image quality, tamper localization and recovered image quality, which is a serious problem to the majority of current watermarking schemes with restoration ability. Addressing these gaps, in this thesis, a number of original contributions have been made. Starting with a comprehensive literature review on digital watermarking schemes and their applications and determine the requirements for watermarking, which has led to the following main contributions: A novel self-embedding watermarking scheme aims to authenticate the content of a watermarked image and to detect any possible alterations and recover damaged area is developed, the proposed scheme improves the performance in terms of imperceptibility and robustness, focusing on three major considerations: the invisibility of the embedded watermark, the accuracy of detection and the high quality of the recovered color image. Moreover, in support of developing a strict-authentication scheme for medical image applications, a novel digital signature-based scheme that uses the Cholesky decomposition is developed, which overcomes the limitations of existing schemes. Experimental results prove that the proposed scheme has higher capacity and more efficient detection ability In addition, aiming at developing a blind dual-color image watermarking scheme, a new watermark embedding scheme is addressed, which is different from some existing schemes that use the binary or gray-level image as watermark. Experimental results demonstrate the stronger robustness of the proposed scheme against most common attacks including image compression, cropping, noising and scaling, etc, that allows this scheme to be applicable for traceability applications. The presented new self-authentication model would help develop more secure selfauthentication scheme with restoration ability. Additionally, the presented Cholesky digital signature-based scheme for medical images and its validation has created a new efficient approach, which can be used for different applications including content authentication and tamper detection. Moreover, the proposed blind dual-color image watermarking scheme offers an efficient robust tool for images traceability
- ItemAnalyse cryptographique par les méthodes heuristiques(2017-02-28) MEKHAZNIA TaharLa cryptanalyse est l’art de l’étude des chiffrements et leurs concepts annexes, de les casser sans connaissance au préalable des algorithmes de chiffrements et des clés utilisées. Son principe réside dans l’utilisation d’outils mathématiques adéquats pour la réussite des attaques. La force brute étant l’attaque la plus sure; elle tente toutes les possibilités sans restriction mais, nécessite en contrepartie d’avantages de ressources et donc, moins de succès en pratique. D’autres alternatives moins gourmandes sont disponibles en littérature : la cryptanalyse linéaire et différentielle, capables de briser une variété de chiffrements. Néanmoins et, compte tenu de leur conception spécifique, paraissent inefficaces à l’égard des cryptosystèmes modernes. Ce problème est classé comme NP-Difficile, a été longuement cible de diverses attaques; les résultats, apparus depuis quelque temps demeurent jusqu’à lors restreints, spécialement lors de la manipulation de larges instances où la consommation de ressources accroît avec la taille du problème. D’un autre côté, les metaheuristiques regroupent un ensemble de méthodes et techniques destinés à explorer des espaces hétérogènes en vue de résoudre des problèmes d’optimisation difficiles. Ceci est dû essentiellement à leur capacité de converger rapidement avec un usage modérée de temps de calcul. Faisant partie des metaheuristiques, les algorithmes évolutionnaires sont dotés d’un potentiel efficace pour le traitement des grandes instances et paraissent aptes à produire des solutions approximatives pour une large variété de problèmes d’optimisation avec une consommation acceptable de ressources. De ce fait, le travail présenté se focalise sur l’analyse des caractéristiques des chiffrements et améliore les outils de cryptanalyse dans le but de favoriser les attaques en optimisant les ressources. Cette analyse englobe la manière de recherche de clés par analyse des statistiques de fréquences de caractères, stratégies de paramétrage de l’environnement et diversification des données de tests; l’outil applicatif utilisé est un ensemble d’algorithmes heuristiques basés sur la recherche locale, le branchement et certaines metaheuristiques à population. Le résultat renvoi une synthèse quant à la classification de ces algorithmes selon leur efficacité à résoudre de tels types de problèmes. La modélisation intègre diverses propriétés liées aux chiffrements, notamment les outils de reconnaissance des langages de chiffrements, le type des chiffrements et les propriétés des clés utilisées. Le code d’expérimentation élaboré permet de gérer un nombre consistant de paramètres: clés, textes de chiffrements, tables statistiques de fréquence de caractères, ainsi que les paramètres liés à l’environnement: taille de données, temps exécution, valeurs de paramètres de diverses metaheuristiques utilisées. L’ensemble de ces tâches a été intégré au sein d’un outil de recherche de clés automatisé permettant de gérer les diverses situations et de contourner l’intervention humaine durant tout le cycle de traitement. Ce concept de synthèse, absent dans la majorité des travaux similaires en littérature, permet en grande partie d’améliorer les conditions d’expérimentations et favoriser la convergence de la solution. Enfin, le travail est couronné par une synthèse de comparaison de performances entre diverses techniques de recherche utilisées aidant ainsi les cryptanalystes à mieux choisir leurs stratégies d’attaques en regard de chaque type de chiffrement ciblé.
- ItemAnalyse, conception et implémentation d’un environnement pour le support de l’apprentissage collaboratif du diagnostic médical(2017-12-28) FERRADJI Mohamed AbderraoufEn dépit de l’important progrès en termes d’utilisation des Technologies de l’Information et de la Communication (TIC) dans l’éducation médicale, l’Apprentissage du Raisonnement Clinique (ARC) reste néanmoins loin des aspirations des enseignants et apprenants en médecine. En outre, tandis que l’ARC est essentiellement une tâche collaborative qui implique la participation d’un groupe d’apprenants avec un tuteur qui analysent simultanément le même cas médical, il doit être considéré d’une perspective sociale. Nous nous appuyons alors sur les notions fondamentales du Travail Collaboratif Assisté par Ordinateur (TCAO - en anglais CSCW : Computer Supported Collaborative Work) afin de proposer de nouvelles solutions permettant de supporter la collaboration dans le contexte de l’apprentissage du diagnostic médical. Par conséquent, nous y développons un environnement permettant l’acquisition sociale des connaissances cliniques. Notre cadre d’étude s’inscrit dans un contexte incluant essentiellement deux axes de recherches totalement hétérogènes. Le premier axe traite le processus du diagnostic médical qui s’appuie particulièrement sur les études cognitives effectuées dans le domaine de l’éducation médicale. Alors que le domaine du TCAO, permet d'analyser le processus de coopération/collaboration dans les situations de travail réelles, afin de concevoir les outils de support appropriés. Dans cette perspective, cette thèse présente les principes de base d’analyse, de modélisation et d’implémentation d’un environnement informatique supportant la collaboration dans le contexte de l’apprentissage du diagnostic médical. Cet environnement est caractérisé essentiellement par l’intégration de mécanismes importants au support de la coopération/collaboration, la coordination et l'interaction de groupe lors du processus d’Apprentissage Collaboratif du Raisonnement Clinique (ACRC). Il permet en conséquence à plusieurs apprenants avec leur tuteur, géographiquement distribués, de travailler simultanément et de façon coordonnée sur un même cas clinique afin d’avoir le diagnostic médical le plus approprié. Par ailleurs, le développement de l’environnement est fondé principalement sur une étude approfondie, du processus d’ARC, que nous avons effectué, pour comprendre les méthodes habituelles sous lesquelles les étudiants apprennent ensemble. Cette étude menée, dans le milieu clinique, à travers une enquête basée sur des observations et des interviews avec des étudiants et enseignants en gynécologie et obstétrique.
- ItemApproche d’apprentissage pour l’analyse des Big Data(2023) Benoughidene AbdelhalimThe development of information technology has led to the big data revolution, with the amount of data produced increasing at a high rate. Video data is a significant component of big data, and the concept of automatically analyzing this rapidly increasing video content has become a popular research topic. In such a scenario, video automatic analysis uses a new generation of information technologies, such as artificial intelligence (machine learning), which help transform traditional video analysis to be more efficient and convenient. Video summary (VS) is now one of the primary areas of study in video analysis. Despite the use of big data-driven models, producing accurate video summaries in an efficient and effective manner remains a challenging task. The most effective and efficient way to transform lengthy, unstructured videos into structured, condensed, understandable, and useful information is through the use of video summaries. The primary goal of summarizing a video is to break it down into shots and select key frames from each shot that best capture the essence and flow of the entire video. The goal of this thesis is to improve the performance of video summarization systems by enhancing the quality of analytical techniques. To achieve this goal, we proposed two contributions. First, we suggested a shot boundary detection (SBD) method to adapt key shots and exploit its potential in video summaries. This is the first step in the video summarization process, and the results have a significant impact on the quality of the final summary. The main idea behind SBD is to extract features from video frames and then identify the boundaries between shots based on the differences in the features. Second, we focused on improving video summaries using unsupervised machine learning techniques (DBSCAN) and genetic algorithms (GA) to optimize DBSCAN hyperparameters. We validated the proposed methods and results obtained through extensive comparative analysis using datasets.
- ItemApproche Multimodale basée sur l’Apprentissage Profond pour l’Identification Biométrique(2023) ABDESSALAM HATTABDue to the growing need for user identification in various modern applications, experts highly recommend incorporating biometric technology in the application development field. Recently, many recognition systems using face and iris traits obtained remarkable performance, particularly since these biometric traits are captured from a distance without physical contact with sensors. This feature reduces the potential spread of the COVID-19 pandemic and other diseases by touch and makes biometrics more convenient and user-friendly. However, the recognition systems’ performance is significantly reduced when these traits are captured under uncontrolled conditions, including occlusion, poses and illumination variation. Because the handcrafted approach used by some recognition systems extracts local features from the global image, where the image’s regions affected by the uncontrolled conditions often influence the quality of extracted features. This thesis proposed a robust face recognition system that extracts features from important facial regions, using Scale-invariant feature transform (SIFT) to identify significant facial regions and adaptive Local Ternary Pattern (ALTP) to extract features. The proposed system achieved promising results on two benchmark face datasets captured under unconstrained conditions, achieving 99.75% on the ORL dataset and 95.12% on the FERET dataset. In addition, a new face recognition system based on Deep Learning has been proposed using the pre-trained AlexNet-v2 model. The proposed system achieved excellent results on the ORL and FERET face datasets, reaching 100% on the first and 99.89% on the second. Moreover, we proposed a novel face recognition system to address the issue of illumination variation. The system used a novel model inspired by the pre-trained VGG16 model. The proposed system achieved state-of-the-art results, reaching 99.32% on the Extended Yale B dataset and 99.79% on the AR dataset. Another contribution of this work is developing a novel iris recognition system based on Transfer Learning to achieve high accuracy rates. The proposed system used the Yolov4-tiny model to localize the iris region, while a novel Deep Convolutional Neural Network (CNN) model inspired by the pre-trained Inception-v3 model was used for features extraction. The performance of this system was evaluated on four different iris databases captured under non-cooperative conditions, where it achieved a new state-of-the-art accuracy rate reaching 99.91%, 99.60%, 99.91%, and 99.19% on the IITD, CASIA-Iris-v1, CASIA-Iris-Interval, and CASIA-Iris-Thousand, respectively. The proposed unimodal systems achieved high accuracy compared to state-of-the-art methods. However, relying solely on a unimodal biometric trait is inadequate for high-security requirements in military and government applications. Finally, three face-iris multimodal biometric systems have been proposed in this thesis. The first employs the fusion of images, the second utilizes feature-level fusion, and the third is based on score-level fusion. The proposed systems used Yolov4-tiny to detect the face and both iris regions. In addition, they applied a new deep CNN model inspired by the pre-trained Xception model to extract features. To evaluate the performance of the proposed systems, a twofold cross-validation protocol is employed on the CASIA-ORL and SDUMLA-HTM multimodal benchmark databases. The results showed that our systems achieved a perfect score of 100% on both databases. Remarkably, the system utilizing score-level fusion outperformed the other systems, achieving outstanding results of 100% on the CASIA-ORL database and over 99% on the SDUMLA-HTM database, with only one sample used for training.
- ItemApproches de classification des images à grande échelle sur des architectures massivement parallèles(2021-02-22) MEZZOUDJ SalihaActuellement, l’énorme volume de données structurées et non structurées provenant de sources diverses, produites en temps réel et dépassent la capacité de stockage d‘une seule machine. En effet, ces données sont difficilement traitées avec les systèmes de recherche d‘information classique. Ce challenge nous a motivés pour élaborer un nouveau système de recherche et de classification des images permettant le stockage, la gestion et le traitement des grandes quantités d’images (Big Data) et qui imposent une parallélisation des calculs pour obtenir des résultats en temps raisonnable et avec une précision optimale. Cette thèse est organisée en deux parties. La première partie représente un état de l‘art sur le domaine de la vision par ordinateur et ces concepts de base, les technologies de Big Data spécialement les plateformes de stockage et de calcul, elles présentent aussi l’infrastructure distribuée nécessaire pour rendre ces plateformes faciles à utiliser. Dans la deuxième partie un nouveau système de recherche d’images par le contenu rapide basé sur la plateforme Spark (CBIR-S) est présenté comme une première proposition tout en ciblant les bases d’images à grande échelle (Big Data). Dans ce système nous utilisons lemodèle distribuéMapReduce sous la plateforme Spark pour traiter de grands volumes de données en parallèle en divisant le travail en un ensemble de tâches indépendantes, et afin d’accélérer le processus d’indexation nous avons utilisé également un système de stockage distribué, qui s’appelle Tachyon; et afin d’accélérer le processus de recherche nous utilisons l’algorithme parallèle de K-plus proches voisins (k-NN) de classification basée sur le modèle MapReduce implémenté sous Apache Spark.De plus, nous exploitons la méthode de cache de spark. Notre approche proposée permet d’accélérer les temps d’indexation, et de classification, tout en gardant les précisions des méthodes. Les tests effectués sur une base d’images ImageCLEFphoto 2008 montrent les avantages de système proposé. Comme une deuxième proposition, nous introduisons une nouvelle méthode de classification des races dans des base d’images faces à grande échelle basée sur la méthode Local Binary Pattern (LBP) et la méthode de régression logistique (LR) sous la plateforme Spark pour traiter d’une manière parallèle une grande échelle des faces. L’évaluation de notre méthode proposée a été effectuée sur la combinaison de deux grandes bases d’images de visage CAS-PEAL (partie de pose) et Color FERET. Deux races ont été considérées pour ce travail, y compris les races asiatiques et non asiatiques. Par comparaison, notre méthode avec les classificateurs SVM linéaires, bayésiens naïfs (NB), forêts aléatoires (RF) et arbres de décision (DT) de Spark, nous avons obtenu une précision moyenne de 99,99%, les résultats montrent que notreméthode est très compétitive. Mots clés : Big Data; système de recherche d’images; classification; les technologies de Big Data; k-NN parallèle ; spark, Tachon; cache; classification des races; LR; NB; RF; DT.
- ItemApproches Evolutionnaires Hybrides pour Le Tatouage Numérique des Images.(2018-07-22) GOLEA Nour El-HoudaAu cours de ses des dernières années, le passage vers le monde numérique offre aux utilisateurs plusieurs commodités, pour utiliser, traiter, stocker et transmettre leurs données. En outre, l’évolution rapide et sans cesse des systèmes d’acquisition d’images a permis un formidable essor de l’utilisation de l’image numérique. En effet, la numérisation est une épée à double tranchant, elle offre plusieurs bénéfices d’une part et pose des problèmes de sécurité d’autre part. Pour cette raison, il est obligatoire de concevoir des systèmes de protection des images numériques contre toutes manipulations illégales. Dans ces dernières décennies, le tatouage numérique, une technique brillante proposée pour répondre à plusieurs aspects de la sécurité. Le principe de cette technique est d’implanter un signal numérique appelé watermark dans un autre signal numérique appelé signal hôte (texte, image, audio, vidéo, ...). Dans ce cadre, nous proposons dans cette thèse des nouvelles approches de tatouage numérique des images. La première contribution consiste à proposer une nouvelle approche évolutionnaire à base des algorithmes génétiques pour la protection de droit d’auteurs des images couleurs RGB. L’objectif de cette approche est d’optimiser les deux exigences contradictoires du tatouage : l’imperceptibilité et la robustesse. La deuxième et la troisième contributions décrient des nouvelles approches de tatouage appliquées à l’imagerie médicale. Ces deux approches sont inspirées de la transmission en réseau où l’utilisation des codes détecteur et correcteur des erreurs est apparu naturel. Une de ces approches repose sur l’utilisation du code détecteur des erreurs (CRC) afin de garantir l’authentification de la région d’intérêt de l’image médicale. Tandis que, l’autre utilise un code correcteur des erreurs (RS) pour assurer en plus de l’authentification, l’intégrité. Dans la quatrième contribution, nous proposons une nouvelle approche de tatouage de deuxième génération basée sur les Diagrammes de Voronoi VD et le code CRC en utilisant des polynômes standard de degré élevée ayant des propriétés mathématiques particulières comme CRC-32, CRC-16 et CRC-8 pour générer le watermark. Ce dernier est inséré dans chaque région de l’image après une décomposition en utilisant VDs
- ItemApproches évolutionnaires multi-biométriques pour l’identification des personnes.(2019-10-08) BOUCETTA AldjiaCette thèse porte sur l’étude des approches évolutionnaires pour la biométrie. Précisément, l’objectif est de proposer des approches multi-biométrices efficaces pour l’authentification de personnes basées sur les signatures biométriques. Dans cette thèse, d’abord, nous proposons une nouvelle méthode de reconnaissance de la main qui combine les moments invariants d’Hu et les moments de Legendre, en tant que nouvel extracteur de caractéristiques. Puis, nous proposons l’utilisation de PSO comme technique évolutive permettant de combiner la modalité du visage, de l’iris et de palmprint au niveau du score. Dans ce système, nous utilisons trois algorithmes d’extraction de caractéristiques (transformation de Gabor, transformation DWT et transformation de Contourlet) pour extraire les principales caractéristiques biométriques. Ensuite, PCA, LDA et KFA sont utilisés pour la réduction de dimensionnalité des vecteurs de caractéristiques. Finalement, nous proposons un système biométrique multimodal efficace basé sur le Deep Learning. Pour cela, nous explorons deux approches basées sur CNN(Convolutional Neural Network) en utilisant un modèle préentraînement téléchargé de la littérature (squeezenet). Dans le premier approche, nous essayons de classer les objets en fonction de leurs caractéristiques distinctes et prenons donc une décision de classification finale basée sur les autres décisions. Nous pouvons utiliser un élément du modèle, tel que l’extracteur de caractéristiques, ou le fine-tuning en l’adaptant à notre tâche au lieu d’imagenet avec 1000 classes. Dans la deuxième approche, les vecteurs de caractéristiques sont extraits séparément, en utilisant squeezenet pour extraire les caractéristiques profondes des modalités, nous prenons les caractéristiques de la couche 66 et nous combinons ces vecteurs pour former un vecteur de caractéristiques composites. Ensuite fait une classification à l’aide de SVM.
- ItemArchitecture Parallèle pour l’accélération de la recherche dans les routeurs IP. Doctorat thesis,(2012) Université de Batna 2.(2016-08-01) HOUASSI HichemLe réseau Internet est composé de noeuds et de routeurs reliés ensemble par des médias de transmission (liens). Les paquets de données transitent sur les liens, d'un routeur à un autre, vers leurs destinations finales. Chaque routeur exécute une décision d’expédition sur les paquets entrants pour déterminer le prochain routeur du paquet. Le routeur Internet est un dispositif permettant de choisir le chemin que les paquets de données vont emprunter pour arriver à leurs destinations. Pour ce faire, le routeur effectue une recherche dans la table de routage en utilisant l’adresse de destination d’un paquet IP comme une clé ; cette tâche du routeur est appelée décision de routage. La croissance du nombre d'utilisateurs d'Internet à comme conséquence l’augmentation des tailles des tables de routage des routeurs et la complexité de l’opération d’expédition des paquets de données. La décision de routage consiste à chercher la meilleure route pour un paquet à partir de son adresse IP destination. Afin d’augmenter l’efficacité du routage dans l’Internet, plusieurs adresses destination sont agrégées en une seule entrée dans une table de routage (préfixe). Depuis l’avènement du CIDR (Classless Inter-Domain Routing), les préfixes dans la table de routage ont des longueurs variables, alors plusieurs préfixes peuvent être associés à une même adresse IP de destination, le routeur doit choisir le plus long préfixe correspondant (PLP) à l’adresse IP. Etant donné que les préfixes dans la table de routage ont des longueurs différentes, alors, nous ne pouvons pas trouver la correspondance en utilisant un algorithme de recherche avec une correspondance exacte. Par conséquent, les performances du routeur dépendent fortement de l'efficacité de l'opération de recherche du plus long préfixe dans la table de routage. Différentes approches logicielles et matérielles ont été proposées et déployées pour améliorer les performances des routeurs, et dont la métrique de performance a été principalement le débit ou le nombre de paquets expédiés par seconde. Dans cette thèse nous avons proposé trois mécanismes de recherche du plus long préfixe correspondant à une adresse IP dans une table de routage, les mécanismes que nous avons proposés dans cette thèse contribuent à améliorer la performance de l'acheminement de paquets dans les routeurs IP.
- ItemAuto-adaptation dans les RCSF hétérogènes pour des e-applications(2018-06-10) Naidja MiloudEn fonction de l'application, différentes architectures et protocoles ont été considérés pour les réseaux de capteurs. La topologie de déploiement des capteurs dans les RCSF dépend de l'application et affecte les performances des protocoles de sous-couche comme le protocole de routage. Vraiment, la pertinence d'un protocole de routage particulier dépend principalement des capacités des noeuds )contraintes, homogènes avec les mêmes caractéristiques, hétérogènes avec des capacités différentes …etc.) et sur les exigences de l'application. Le déploiement du réseau est soit déterministe, soit auto-organisé. De nombreux schémas de routage et d'auto-adaptation ont été proposés pour les réseaux de capteurs. La topologie hiérarchique dans les RCSF répond aux exigences de conservation d'énergie et de QoS dans un environnement homogène. Dans de tels réseaux, un algorithme spécifique est appliqué au niveau de tous les noeuds capteurs. Sur cette base, nous avons proposé deux solutions pour l'auto-adaptation dans les RCSF homogènes et hétérogènes. La première proposition considère un routage hétérogène en appliquant différentes stratégies qui seront les plus appropriées dépendamment d’une application en fonction des paramètres spécifiques dans chaque cluster. Cette approche conduit à un nouveau protocole d'auto-adaptation basé sur l'hétérogénéité des protocoles de routage dans les RCSF. La proposition utilise un ensemble de mécanismes qui ont été adoptés dans des protocoles bien connus (HEEP, APTEEN, LEACH, PEGASIS ...) en tenant compte de leurs forces et faiblesses. Les simulations effectuées sous NS2 montrent que notre proposition, basée sur un protocole de routage hétérogène, prolonge la durée de vie du réseau par rapport à HEEP, PEGASIS et autres. La deuxième solution présente un protocole de routage HEEP-AO (HEEP-Auto-Organisé): un protocole de routage hybride, qui est une extension du protocole HEEP. La solution est efficace pour l'auto-organisation au niveau des noeuds ordinaires, cluster-heads et station de base. Elle est appropriée pour des applications nécessitant une fiabilité et une tolérance aux pannes car elle garantit que toutes les données soient transmises correctement à la station de base malgré la présence de différents types de défauts, dus à l'énergie, aux pannes matérielles, aux erreurs de communication et aux attaques malveillantes ... etc.
- ItemAutomatic multi-documents text summarization using Binary Biology Migration Algorithm(2024) Mohamed BOUSSALEMAs the World Wide Web continues to expand, the process of identifying pertinent information within its vast volume of documents becomes increasingly challenging. This complexity necessitates the development of efficient solutions, one of which is automatic text summarization; an active research area dedicated to extracting key information from extensive text. The difficulties are further compounded when addressing multi-document text summarization, due to the diversity of topics and sheer volume of information. In response to this issue, this study introduces a novel approach based on swarm intelligence algorithm called biology migration algorithm (BMA). Our proposed approach is; Binary Biology Migration Algorithm for Multi-Document Summarization (BBMA-MDS). Viewing multidocument summarization as a combinatorial optimization problem, this approach leverages the biology migration algorithm to select an optimal combination of sentences. Evaluations of the proposed algorithm's performance are conducted using the ROUGE metrics, which facilitate a comparison between the automatically generated summary and the reference summary, commonly known as the 'gold standard summary'. For a comprehensive evaluation, the well-established DUC2002 and DUC2004 datasets are employed. The results demonstrate the superior performance of the BBMA-MDS approach when compared to alternative algorithms, including firefly and particle swarm optimization, as indicated by the selected metrics. This study thus contributes effectively according to the evaluation to the field by proposing BBMA-MDS as an effective solution for the multi-document text summarization problem.
- ItemConception d’un modèle coopératif de support de la télémaintenance industrielle. Doctorat thesis,(2011) Université de Batna 2.(2016-08-01) HEDJAZI, DjalalAujourd‘hui, il est unanimement reconnu que les Technologies de l‘Information et de la Communication (TIC) jouent un rôle capital pour le soutien et l‘assistance de la majorité des activités réalisées au sein des organisations. Particulièrement dans le secteur de maintenance industrielle qui fait l‘objet de cette modeste contribution. Notre travail de recherche tente d‘exploiter ces évolutions technologiques afin de faire face à la complexité croissante des équipements industriels qui ne cesse de s‘accroitre. Nous entendons ainsi répondre à la problématique de maintenance afin de permettre aux entreprises industrielles de réduire les délais d‘inactivité de leurs équipements ainsi que les coûts associés. Pour répondre objectivement aux besoins du processus de maintenance, nous nous appuyons sur les concepts fondamentaux du Travail Coopératif Assisté par Ordinateur (TCAO ou Groupware). Notre objectif est de fournir une plateforme de support des activités de maintenance permettant à plusieurs experts de collaborer à distance autour d‘une même défaillance et générer ensemble une solution réparatrice. Par conséquent, notre contexte d‘investigation s‘inscrit dans un domaine impliquant principalement deux axes de recherches complètement hétérogènes. Le premier axe traite la problématique de télémaintenance industrielle qui aspire à tirer profit des TIC afin de réduire autant que possible le temps d‘arrêt des équipements. Alors que le domaine du Groupware, permet d'analyser le processus de coopération dans les situations de travail effectives, afin de concevoir les outils de support adéquats. Dans cette perspective, cette thèse présente les principes de base de modélisation et de conception d‘un système informatique supportant la coopération dans le contexte de la télémaintenance industrielle. Ce système est caractérisé principalement par l‘intégration de mécanismes nécessaires au support de la coopération, la coordination et l'interaction de groupe lors de l‘exécution d‘un projet de télémaintenance. Il permet à plusieurs experts de travailler simultanément et de façon coordonnée sur un même problème industriel. Ces experts, géographiquement dispersés, peuvent ainsi générer ensemble une solution définissant les différentes phases du processus de maintenance. Le système est fondé sur deux principaux composants, un gestionnaire de sessions de travail et un gestionnaire des activités de collaboration dédié au support de l‘interaction de groupe. Notre démarche repose sur la conception d‘une architecture logicielle ouverte pour un environnement intégrant plusieurs applications fournissant l‘assistance requise par les activités de télémaintenance industrielle. Par conséquent, nous avons opté pour une structure complètement modulaire afin de pouvoir à plus long terme, ajuster facilement le comportement global de l‘environnement conformément aux exigences de ses usagers. Enfin, pour capturer et diffuser les actions des différents experts dans l'espace de travail partagé, nous définissons un mécanisme de notification d'événements qui exploite le plan d‘actions décrivant les phases du processus de réparation.
- ItemConception par Emergence Inversée d’Agents Autonomes dans le Cadre de Systèmes Complexes Adaptatifs. Doctorat thesis, (2013) Université de Batna 2.(2017-04-02) ABDESSEMED Mohamed RidaLes systèmes artificiels augmentent significativement de complexité depuis quelques années. Les méthodes classiques s’avèrent peu efficaces, aussi bien pour les concevoir et les mettre en oeuvre que pour les gérer et les entretenir. Des chercheurs dans diverses disciplines se sont tournés vers la nature où ils ont découvert, à leur grande surprise, que les systèmes naturels plongés dans des environnements très changeants ont pu résoudre des problèmes ardus, similaires à ceux dont ils commencent à y faire face actuellement, et que la nature a résolu depuis déjà des milliers d’années. L’adaptation basée sur l’émergence et l’auto-organisation ressortent comme des propriétés essentielles singularisant ces systèmes naturels. Parmi les méthodes récentes, très prometteuses, permettant d’intégrer ce type d’adaptation dans les systèmes artificiels complexes, on retrouve l’apprentissage automatique. Inspirée du comportement des systèmes naturels complexes, l’idée sur laquelle on travail ici, s’appuie sur une méthode combinant entre l’apprentissage automatique évolutionniste et l’émergence inversée pour retrouver les règles qui contrôlent le comportement des entités de bas niveau constituant le système complexe étudié afin de faire émerger le macro-phénomène désiré dans un environnement de simulation orienté agents. Cette macro-émergence est considérée comme le résultat d’une adaptation du système dynamique complexe à des contraintes changeantes imposées par son environnement. Plusieurs cas ont étés étudiés, dans ce contexte, issus d’un domaine de première importance présentement. Il s’agit de la robotique du groupe. Cette discipline représente un cadre idéal pour cette étude, étant donné que les systèmes auxquels elle s’intéresse renferment un grand nombre d’éléments mobiles en interactions intenses, leurs permettant d’évoluer dans l’espace et dans le temps. L’adaptation, de la façon dont elle à été traitée, souffre d’anomalies ; puisque rien ne garantie son efficacité et ceci peut engendrer des conséquences néfastes. Une idée semble pallier ce problème, elle est évoquée ici en tant que perspective, il s’agit de l’adaptation prédictive qui consiste à évaluer les conséquences d’une telle action avant de la lancer. L’impact économique, social et politique d’un tel travail est d’une importance stratégique ; des agents mobiles que ce soit des ordinateurs, des systèmes embarqués ou des robots autonomes dans des environnements réseau ou autres, très complexes, qui arrivent à régler leurs problèmes en s’auto-adaptant aux variations de leur environnement sans aucune intervention externe, représentent une propriété recherchée depuis déjà longtemps.
- ItemContribution à la Parallèlisation des Algorithmiques Evolutionnaires Appliqués au Traitement de Données Multimédia.(2022-03-08) BOUBECHAL IkramLa compression et la segmentation d’image font partie des techniques de traitement d’image les plus essentielles. Bien que plusieurs méthodes visant à améliorer leur performance aient été proposées dans la littérature, le compromis qualité de solution et temps de calcul reste difficile à satisfaire. Ceci nous a mené à nous intéresser aux algorithmes méta-heuristiques et leur application au traitement d’image, particulièrement ceux à base de population. En premier lieu, nous avons testé l’efficacité de trois algorithmes méta-heuristiques à savoir Whale Optimization Algorithm (WOA), Particle Swarm Optimization (PSO) et Firefly Algorithm (FA) dans la résolution d’un problème très répandu dans la compression par quantification vectorielle et qui consiste en la production d’un dictionnaire optimal. Les résultats obtenus indiquent que l’utilisation des algorithmes méta-heuristiques n’apportent aucune amélioration et que l’utilisation de l’algorithme Lind-Buzo-Grey (LBG) classique reste, à notre avis, le choix le plus performant. Quant à notre deuxième contribution, elle consiste à utiliser la métrique SSIM comme fonction objective optimisée par PSO, FA et Bat Algorithm (BA) avec des paramètres préalablement ajustés, afin de résoudre le problème de segmentation, particulièrement, le multi-seuillage. Les résultats obtenus montrent que la méthode SSIM basée sur PSO produit des solutions quasi-identiques à identiques aux solutions exactes (obtenues par la recherche exhaustive) et permet de générer des images segmentées de meilleures qualités comparés à l’utilisation de la méthode classiques : Otsu. Néanmoins, la fonction SSIM s’est avérée un peu couteuse en temps de calcul. De ce fait, la complexité de calcul a été considérablement réduite en adoptant un paradigme de programmation parallèle à mémoire partagée (OpenMp). En dernier lieu, nous avons apporté des modifications à l’algorithme Bacterial Foraging Optimization (BFO) dans le but d’améliorer sa convergence et la qualité des solutions obtenues. Notre approche Upgraded-BFO (UBFO) est comparée aux algorithmes : PSO, WOA, Grey Wolf Optimization (GWO), Moth Flame Optimization (MFO), BFO et Modified BFO (MBFO). Les expérimentations indiquent que UBFO produit de meilleurs résultats par rapport aux algorithmes BFO, MBFO, MFO et GWO et qu’il très compétitif avec PSO et WOA. De plus, les tests statistiques ont montré que UBFO est l’algorithme le plus précis et le plus stable par rapport aux autres algorithmes utilisés.
- ItemContribution à l’étude des mécanismes cryptographiques(2016-09-27) Beloucif AssiaDepuis que l’image a pu être introduite et traitée sous forme informatique, ses applications n’ont eu cessé de s’enrichir. Ainsi, elle est devenue numérique et elle est exploitée aussi bien par des utilisateurs simples que par des professionnels (architecture, médecine, audiovisuel, commerce, militaire, . . . ). Le développement permanent des dispositifs d’acquisition d’images, des réseaux informatiques et de l’augmentation rapide des écoutes illégales font apparaître de nombreux et de nouveaux mécanismes de chiffrement qui contribuent à l’amélioration continue de la qualité des schémas de chiffrement des images numérique, en fonction des différentes technologies. La plupart de ces travaux, au niveau de la sécurité, montrent plusieurs défaillances. Dans ce travail, nous avons exploré les bénéfices de deux techniques différentes afin de pallier les limitations des algorithmes de chiffrement d’images existant. La première proposition consiste en un algorithme de chiffrement des images en niveau de gris basé sur des transformations matricielles et le OU exclusif, tandis que la deuxième proposition présente un algorithme tweakable de chiffrement des images en couleur basé sur l’utilisation de la carte chaotique non linéaire PWLCM. Des comparaisons avec des schémas de chiffrement d’images récemment proposés ont été réalisées montrant que les algorithmes proposés offrent des performances très favorables.
- ItemContributions à la Segmentation d’images basées sur la résolution collective par colonies de fourmis artificielles. Doctorat thesis,(2006) Université de Batna 2.(2017-04-02) OUADFEL SALIMALe travail présenté dans cette thèse décrit une nouvelle approche pour la segmentation d’images. Cette approche s’inspire des comportements collectifs et auto-organisé des fourmis dans la nature. Elle se base sur une population de fourmis artificielles simples capables de s’auto-organiser pour faire émerger une segmentation optimale. Dans un premier temps, on s’est inspiré du comportement collectif de tri de couvain observé chez les fourmis pour développer une méthode de classification non supervisée. Les pixels de l’image sont initialement placés sur un tableau de cases représentant l’environnement des fourmis. Selon une fonction de similarité locale, les fourmis vont déplacer les pixels d’une case à une autre dans le but d’obtenir des classes homogènes et bien séparées. La méthode testée sur des images synthétiques et réelles a montré son efficacité et sa capacité à extraire un nombre correct de classes avec une partition de bonne qualité en comparaison à l’algorithme classique Kmeans. Dans un second temps, le comportement collectif de recherche de nourriture a été utilisé pour la segmentation d’images basée sur les champs de Markov. L’image est segmentée en maximisant la probabilité a posteriori (MAP) utilisant des algorithmes inspirés de la métaheuristique « Optimisation par les Colonies de Fourmis ». Une colonie de fourmis artificielles construit de nouvelles partitions selon un processus itératif et stochastique en utilisant une information heuristique et des traces de phéromones artificielles. Les nouvelles partitions sont ensuite optimisées en utilisant un algorithme de recherche local. Une étape de diversification est aussi introduite afin de diversifier la recherche. Les résultats obtenus donnent de bons résultats comparés à ceux obtenus par d’autres méthodes d’optimisation
- ItemContrôle de qualité des architectures logicielles à base de composants : Cas d'étude.(2022-09-08) KADRI SalimDepuis plusieurs décennies, la qualité des logiciels a été considérée comme le constituant clé du succès commercial des organisations. Les architectures logicielles ont été jugées comme le niveau approprié pour traiter les exigences de qualité des utilisateurs (attributs de qualité). Une multitude de méthodes a été proposée pour évaluer l'architecture logicielle. Cependant, selon l'étude de la littérature que nous avions effectuée, nous avons constaté que ces méthodes souffrent de nombreuse lacunes. Dans cette thèse, notre objectif est de surmonter ces lacunes en proposant une nouvelle méthodologie d'évaluation à l’aide d’un framework d'évaluation multiservice appelé MS-QuAAF. Ce framework se compose de deux modules principaux. Le premier module propose un nouveau concept appelé projection de facettes pour réduire la complexité d’une architecture cible en réduisant la taille de ses méta-modèles. Le deuxième module fournit un ensemble de métriques génériques appliquées aux architectures à travers trois services d'évaluation. Le premier service permet d'évaluer la défectuosité de l'architecture durant l’étape de conception. Le deuxième service est utilisé pour évaluer l'architecture à l’étape d’implémentation grâce à une méthode proposée appelée analyse de décomposition des responsabilités. Le troisième service est dédié à la finalisation de l'évaluation et à la production du rapport final. L'évaluation expérimentale que nous avions conduit à travers deux cas d’études nous a permis de répondre aux questions de recherche confrontées, ainsi de nombreuses conclusions et contributions ont été obtenues. Contrairement à la plupart des méthodes proposées, MS-QuAAF peut fournir une évaluation continue qui couvre deux étapes principales de développement : l’étape de conception et l’étape d’implémentation. Le framework permet à travers ses métriques génériques, l'évaluation de tous les attributs de qualité et la détection des déviations d’architecture. De plus, il est capable de guider les architectes pendant le processus de développement pour détecter les irrégularités et améliorer la qualité de l'architecture.
- ItemContrôle de qualité des architectures logicielles à base de composants : Cas d'étude.(2022-09-08) KADRI SalimDepuis plusieurs décennies, la qualité des logiciels a été considérée comme le constituant clé du succès commercial des organisations. Les architectures logicielles ont été jugées comme le niveau approprié pour traiter les exigences de qualité des utilisateurs (attributs de qualité). Une multitude de méthodes a été proposée pour évaluer l'architecture logicielle. Cependant, selon l'étude de la littérature que nous avions effectuée, nous avons constaté que ces méthodes souffrent de nombreuse lacunes. Dans cette thèse, notre objectif est de surmonter ces lacunes en proposant une nouvelle méthodologie d'évaluation à l’aide d’un framework d'évaluation multiservice appelé MS-QuAAF. Ce framework se compose de deux modules principaux. Le premier module propose un nouveau concept appelé projection de facettes pour réduire la complexité d’une architecture cible en réduisant la taille de ses méta-modèles. Le deuxième module fournit un ensemble de métriques génériques appliquées aux architectures à travers trois services d'évaluation. Le premier service permet d'évaluer la défectuosité de l'architecture durant l’étape de conception. Le deuxième service est utilisé pour évaluer l'architecture à l’étape d’implémentation grâce à une méthode proposée appelée analyse de décomposition des responsabilités. Le troisième service est dédié à la finalisation de l'évaluation et à la production du rapport final. L'évaluation expérimentale que nous avions conduit à travers deux cas d’études nous a permis de répondre aux questions de recherche confrontées, ainsi de nombreuses conclusions et contributions ont été obtenues. Contrairement à la plupart des méthodes proposées, MS-QuAAF peut fournir une évaluation continue qui couvre deux étapes principales de développement : l’étape de conception et l’étape d’implémentation. Le framework permet à travers ses métriques génériques, l'évaluation de tous les attributs de qualité et la détection des déviations d’architecture. De plus, il est capable de guider les architectes pendant le processus de développement pour détecter les irrégularités et améliorer la qualité de l'architecture.
- ItemCryptographie quantique, Nouvelles approches(2017-11-05) DJELLAB RimaQuelque soit l’environnement dans lequel se déroule une communication, la sécurité reste un pilier nécessaire pour le bon déroulement de cette communication. Afin d’assurer un certain niveau de sécurité, la confidentialité est un élément essentiel à assurer. Ce sont les techniques de cryptographie qui l’assurent. La pierre angulaire des techniques cryptographiques est la gestion de clé. Plusieurs protocoles ont été proposés pour assurer une bonne gestion de clé dans un groupe, mais leur sécurité se base sur la complexité computationnelle. La distribution de clé quantique, par abus dite cryptographie quantique, est une primitive cryptographique basée sur les lois de la mécanique quantique, permettant d’établir une clé secrète commune entre les traditionnels correspondants Alice et Bob. Dans cette thèse, nous nous intéressons à la problématique de la distribution de clé dans groupe. Nous proposons pour cela une solution basée sur la distribution de clé quantique, ce qui permet d’exploiter cette même solution dans le contexte de groupe. Nous avançons par la suite la preuve formelle de la solution proposée en utilisant le vérificateur formel PRISM
- ItemDétection Multicritères des Anomalies sur des Mammographies.(2016-11-23) DJAROUDIB KhamsaLa vision par ordinateur est devenue un outil incontournable pour l’aide au diagnostic des experts médicaux. En particulier, les systèmes automatiques d’aide au diagnostic du cancer du sein (CAD) deviennent de plus en plus utilisés. L’étude menée sur les pathologies mammaires dans des images de mammographie, a montré que le diagnostic des masses mammaires et leur classification suscitent actuellement un grand intérêt. En effet, la complexité, la diversité des formes traitées et la difficulté rencontrée afin de les discerner nécessitent l’usage de descripteurs appropriés. Une revue des différentes méthodes de détection et/ou de segmentation des masses, nous a permis de distinguer tout d’abord entre les différents schémas des systèmes d’aide à la détection (CADe) et des systèmes d’aide au diagnostic (CADx) des anomalies. Pour nous orienter ensuite vers un premier modèle qui introduit le descripteur de texture extrait des matrices de cooccurrence de niveaux de gris (Grey Levels Cooccurrence Matrix, GLCM) dans une approche de détection par contours. Alors que le plus souvent, ces matrices sont utilisées seulement pour l’extraction des caractéristiques de texture dans les phases de segmentation ou de classification des masses. Le deuxième modèle proposé introduit les Modèles de Mixtures des Gaussiennes (GMM), l’Espérance- Maximisation (EM) et la méthode du Maximum de vraisemblance (ML) dans une approche de segmentation par régions des anomalies de cancer, c’est le modèle GMM/ML. L’algorithme consiste à initialiser les paramètres pour l’algorithme itératif EM par des statistiques sur le tissu suspect et des statistiques sur le tissu normal. Ce qui a permis d’ajuster au mieux les paramètres d’initialisation du modèle GMM classique. En plus de ces deux modèles proposés, et dans la continuité de ce travail, une contribution a été apportée aux problèmes d’amélioration des images de mammographie. Il s’agit d’extraire la région mammaire en coupant la région du muscle pectorale et la région bruitée du fond de l’image. L’extraction de ces deux dernières régions est une étape importante dans le processus global des systèmes d’aide au diagnostic CADx ou d’aide à la détection CADe. L’approche GLCM a été utilisée pour la détection des frontières du muscle pectorale et de la région mammaire et leur extraction. Les approches proposées sont à chaque fois testées et validées sur des images issues de mammographies de la base de données BIRADS MIAS. Et pour donner des résultats plus significatifs à cette étude, des tests ont été réalisés sur des images représentant différentes densités de tissu (Gras, Dense et Glandulaire). Enfin, une évaluation et une comparaison de ces approches avec des méthodes récentes de la littérature ont été réalisées.