Département d'informatique
Permanent URI for this community
Browse
Browsing Département d'informatique by Title
Now showing 1 - 20 of 129
Results Per Page
Sort Options
- Item(2010) Optimisation des Ressources dans les Systèmes Embarqués. Magister thesis, Université de Batna 2.(2016-08-01) Belkhiri HaddaRecent years have witnessed the emergence of microprocessors that are embedded within a plethora of devices used in everyday life. Embedded architectures are customized through a meticulous criteria and time consuming design process to satisfy stringent constraints with respect to performance, area, power, and cost. In embedded systems, the cost of the memory hierarchy limits its ability to play as central a role. This is due to stringent constraints that fundamentally limit the physical size and complexity of the memory system. Embedded systems are increasingly using on-chip caches as part of their on-chip memory system. The existing cache organization suffers from the inability to distinguish different types of localities. This causes unnecessary movement of data among the levels of the memory hierarchy and increases in miss ratio. In our work we propose split data cache architecture for the embedded multimedia applications that will group memory accesses as scalar or array references according to their inherent locality and will subsequently map each group to a dedicated cache partition
- ItemA RobustWatermarking Approach for Images Authentication and Traceability.(2019-03-13) BELFERDI WassilaDigital watermarking is a promising technology that has shown the ability to achieve the security and protection of image data.The enormous growth, use, and distribution of these images reveal security threats with legal and ethical complexities. Though, despite the wide interest that has, digital watermarking still not been widely adopted in some applications like image authentication with restoration ability. Existing watermarking schemes often suffer from technical and security flaws. Validation of the suitability of those schemes for an application becomes more challenging. One main reason for these problems is the compromise between the watermarked image quality, tamper localization and recovered image quality, which is a serious problem to the majority of current watermarking schemes with restoration ability. Addressing these gaps, in this thesis, a number of original contributions have been made. Starting with a comprehensive literature review on digital watermarking schemes and their applications and determine the requirements for watermarking, which has led to the following main contributions: A novel self-embedding watermarking scheme aims to authenticate the content of a watermarked image and to detect any possible alterations and recover damaged area is developed, the proposed scheme improves the performance in terms of imperceptibility and robustness, focusing on three major considerations: the invisibility of the embedded watermark, the accuracy of detection and the high quality of the recovered color image. Moreover, in support of developing a strict-authentication scheme for medical image applications, a novel digital signature-based scheme that uses the Cholesky decomposition is developed, which overcomes the limitations of existing schemes. Experimental results prove that the proposed scheme has higher capacity and more efficient detection ability In addition, aiming at developing a blind dual-color image watermarking scheme, a new watermark embedding scheme is addressed, which is different from some existing schemes that use the binary or gray-level image as watermark. Experimental results demonstrate the stronger robustness of the proposed scheme against most common attacks including image compression, cropping, noising and scaling, etc, that allows this scheme to be applicable for traceability applications. The presented new self-authentication model would help develop more secure selfauthentication scheme with restoration ability. Additionally, the presented Cholesky digital signature-based scheme for medical images and its validation has created a new efficient approach, which can be used for different applications including content authentication and tamper detection. Moreover, the proposed blind dual-color image watermarking scheme offers an efficient robust tool for images traceability
- ItemAdaptation de TCP aux r´eseaux sans fil. Magister thesis, (2012) Université de Batna 2.(2016-08-01) BENYAHIA AbderrezakLa nature mobile des nœuds des réseaux ad hoc et les liens radios qui ne sont pas toujours fiables peuvent avoir un impact sur la bonne réception des données. Les protocoles de transport tels que TCP prévus pour assurer une transmission fiable dans les réseaux filaires o ‘u la perte des paquets est principalement due à des congestions dans les réseaux, peuvent mal interpréter ces événements et engendrent une mauvaise réaction de TCP. Pour remédier à ce phénomène et fiabiliser les communications, le protocole de transport TCP tente d'apporter les meilleures solutions, mais ce dernier traite toutes les pertes de la même manière en invoquant un mécanisme de contrôle de congestion. Avec un taux élevé des pertes, les performances du protocole TCP dans les réseaux ad hoc se dégradent. Pour améliorer la performance de TCP, l'objectif de ce mémoire est en premier lieu de dresser un bilan sur les travaux ayant trait à TCP dans les réseaux ad hoc afin d'identités leurs carences et les points qu'il faut encore améliorer ou ceux qui ne sont pas encore traitées. Dans un second temps, on a proposée une nouvelle variante pour TCP qu'on baptise TCP-MANet dont l'objectif est de différencier entre les pertes dues à la rupture des liens et le phénomène de congestion dans le souci est d'optimiser les performances de TCP. Cette solution utilise le même mécanisme que TCP-BuS en optimisant l'utilisation des tampons au niveau des nœuds intermédiaires et la séparation entre files liées à la congestion et celles réservées pour contenir les paquets des liens erronés qu'on devra acheminer une fois les liens seront rétablis. L’étude de performance de la solution TCP-MANet par rapport à TCP traditionnel a été faite par simulation sous ns-2.
- ItemAlgorithme Génétique pour le Problème d’Ordonnancement dans la Synthèse de Haut Niveau pour Contrôleurs Dédiés. Magister thesis,(2006) Université de Batna 2.(2017-01-12) AMOKRANE SamahLe progrès offert par la technologie de fabrication des circuits micro-électroniques a ouvert la voie à la conception de systèmes digitaux d’une grande complexité. D’où la nécessité progressive de concevoir des circuits à de plus haut niveaux d’abstraction comme le niveau algorithmique. La synthèse de haut niveau consiste en la traduction d’une description comportementale (algorithmique) en une description équivalente au niveau transfert de registres. Le processus de synthèse de haut niveau est composé de plusieurs phases entre autres la phase d’ordonnancement. Cette phase, qui a une grande influence sur la qualité du circuit final, définit une date d’exécution pour chaque opération de la description algorithmique tout en respectant certaines contraintes. Une grande variété d’algorithmes existe dans la littérature pour résoudre efficacement le problème d’ordonnancement, reconnu comme étant un problème NP-Complet. Cette thèse présente un aperçu sur les différentes techniques d’ordonnancement connues actuellement. Ces algorithmes ont été classifiés, selon leur domaine d’application, en deux catégories : des algorithmes orientés flot de données et ceux orientés flot de contrôle. Pour chaque catégorie un ensemble d’algorithmes sont décrits brièvement. Finalement, on propose une technique d’ordonnancement GPBS, pour les circuits de contrôle, basée sur la combinaison de l’algorithme d’ordonnancement à base de chemins et d’un algorithme génétique.
- ItemAnalyse cryptographique par les méthodes heuristiques(2017-02-28) MEKHAZNIA TaharLa cryptanalyse est l’art de l’étude des chiffrements et leurs concepts annexes, de les casser sans connaissance au préalable des algorithmes de chiffrements et des clés utilisées. Son principe réside dans l’utilisation d’outils mathématiques adéquats pour la réussite des attaques. La force brute étant l’attaque la plus sure; elle tente toutes les possibilités sans restriction mais, nécessite en contrepartie d’avantages de ressources et donc, moins de succès en pratique. D’autres alternatives moins gourmandes sont disponibles en littérature : la cryptanalyse linéaire et différentielle, capables de briser une variété de chiffrements. Néanmoins et, compte tenu de leur conception spécifique, paraissent inefficaces à l’égard des cryptosystèmes modernes. Ce problème est classé comme NP-Difficile, a été longuement cible de diverses attaques; les résultats, apparus depuis quelque temps demeurent jusqu’à lors restreints, spécialement lors de la manipulation de larges instances où la consommation de ressources accroît avec la taille du problème. D’un autre côté, les metaheuristiques regroupent un ensemble de méthodes et techniques destinés à explorer des espaces hétérogènes en vue de résoudre des problèmes d’optimisation difficiles. Ceci est dû essentiellement à leur capacité de converger rapidement avec un usage modérée de temps de calcul. Faisant partie des metaheuristiques, les algorithmes évolutionnaires sont dotés d’un potentiel efficace pour le traitement des grandes instances et paraissent aptes à produire des solutions approximatives pour une large variété de problèmes d’optimisation avec une consommation acceptable de ressources. De ce fait, le travail présenté se focalise sur l’analyse des caractéristiques des chiffrements et améliore les outils de cryptanalyse dans le but de favoriser les attaques en optimisant les ressources. Cette analyse englobe la manière de recherche de clés par analyse des statistiques de fréquences de caractères, stratégies de paramétrage de l’environnement et diversification des données de tests; l’outil applicatif utilisé est un ensemble d’algorithmes heuristiques basés sur la recherche locale, le branchement et certaines metaheuristiques à population. Le résultat renvoi une synthèse quant à la classification de ces algorithmes selon leur efficacité à résoudre de tels types de problèmes. La modélisation intègre diverses propriétés liées aux chiffrements, notamment les outils de reconnaissance des langages de chiffrements, le type des chiffrements et les propriétés des clés utilisées. Le code d’expérimentation élaboré permet de gérer un nombre consistant de paramètres: clés, textes de chiffrements, tables statistiques de fréquence de caractères, ainsi que les paramètres liés à l’environnement: taille de données, temps exécution, valeurs de paramètres de diverses metaheuristiques utilisées. L’ensemble de ces tâches a été intégré au sein d’un outil de recherche de clés automatisé permettant de gérer les diverses situations et de contourner l’intervention humaine durant tout le cycle de traitement. Ce concept de synthèse, absent dans la majorité des travaux similaires en littérature, permet en grande partie d’améliorer les conditions d’expérimentations et favoriser la convergence de la solution. Enfin, le travail est couronné par une synthèse de comparaison de performances entre diverses techniques de recherche utilisées aidant ainsi les cryptanalystes à mieux choisir leurs stratégies d’attaques en regard de chaque type de chiffrement ciblé.
- ItemAnalyse des choix techniques pour la conception et le développement d'une application clinique mobile. Magister thesis, (2014) Université de Batna 2.(2016-08-01) KECHIDA KhaledAujourd’hui, nous assistons à une avancée considérable en termes de développement des technologies mobiles, ainsi que des dispositifs associés tels que les Smartphones, les tablettes, etc. Ainsi, cette révolution technologique qui a favorisé l’émergence de ces dispositifs a entrainé également, leur évolution de manière extrêmement rapide et nous disposons aujourd’hui sur le marché d’appareils de plus en plus sophistiqués et performants. Notamment en termes de capacité mémoire, écran tactile, etc. Par ailleurs ces dispositifs sont dotés de possibilités de support des communications et des échanges, à travers le réseau sans fil (IEEE 802.11, Bluetooth, 3G, etc.) avec le monde extérieur à travers des terminaux aussi bien fixes que mobiles. Cependant, la multiplicité des services offerts, la diversité fonctionnelle des systèmes et l’hétérogénéité des besoins nécessitent l’élaboration de modèles de connaissances de ces services, des fonctions de ces systèmes et des besoins. En outre, l’hétérogénéité des environnements informatiques distribués, la disponibilité et les capacités potentielles des diverses ressources humaines et matérielles (instrumentation, services, sources de données, etc.) requises par les différentes tâches et processus, la variété des services qui fournissent des données aux utilisateurs, et les conflits d’interopérabilité entre schémas et sources de données. L’objectif principal de ce travail consiste à proposer un modèle d’accès au système d’informations médicales capable de fournir à l’utilisateur de manière facile une information cohérente. Dans le contexte médical, qui fait l’objet de notre étude, il est capital de faciliter l’accès à la bonne information au moment opportun, afin d’accélérer autant que possible le processus de prise de décision. Ceci nous permettra sans aucun doute d’améliorer de manière significative la prise en charge des patients, notamment en termes d’une administration des traitements appropriés ainsi que du choix judicieux des examens devant être subis par ces derniers. Nous entendons ainsi, à travers notre travail non seulement faciliter l’accès aux informations disponibles mais aussi, fournir une qualité de services dédiée aux activités médicales répondant objectivement aux attentes des acteurs impliqués.
- ItemAnalyse du mouvement et suivi de cibles mobiles dans les séquences vidéo. Magister thesis, (2009) Université de Batna 2.(2016-08-03) KADACHE NabilLe Suivi du mouvement est Parmi les problèmes cruciaux en vision artificielle; En plus de la complexité due a la dimension spatiale des images d'une séquences prises séparément, on doit prendre en considération la dimension temporelle qui mette en relation les objets en mouvement d'une image a l'autre. L'expansion des IAD (Intelligence Artificielle Distribuée) et de la programmation orientée Agent (POA) a ouvert une nouvelle perspective quant a la conception des méthodes de suivi. La vision active, issue du mariage de la vision artificielle et des SMA, permet une résolution distribuée des problèmes de la vision artificielle. Elle consiste à concevoir des entités autonomes qui coopèrent pour aboutir à un objectif en commun. Notre travail, porte sur la conception d'un SMA pour le suivi d'objet dans les séquences d'images, l'ensemble des agents communiquent par envoi de messages. On a démontré la faisabilité d'un tel type de solution.
- ItemAnalyse, conception et implémentation d’un environnement pour le support de l’apprentissage collaboratif du diagnostic médical(2017-12-28) FERRADJI Mohamed AbderraoufEn dépit de l’important progrès en termes d’utilisation des Technologies de l’Information et de la Communication (TIC) dans l’éducation médicale, l’Apprentissage du Raisonnement Clinique (ARC) reste néanmoins loin des aspirations des enseignants et apprenants en médecine. En outre, tandis que l’ARC est essentiellement une tâche collaborative qui implique la participation d’un groupe d’apprenants avec un tuteur qui analysent simultanément le même cas médical, il doit être considéré d’une perspective sociale. Nous nous appuyons alors sur les notions fondamentales du Travail Collaboratif Assisté par Ordinateur (TCAO - en anglais CSCW : Computer Supported Collaborative Work) afin de proposer de nouvelles solutions permettant de supporter la collaboration dans le contexte de l’apprentissage du diagnostic médical. Par conséquent, nous y développons un environnement permettant l’acquisition sociale des connaissances cliniques. Notre cadre d’étude s’inscrit dans un contexte incluant essentiellement deux axes de recherches totalement hétérogènes. Le premier axe traite le processus du diagnostic médical qui s’appuie particulièrement sur les études cognitives effectuées dans le domaine de l’éducation médicale. Alors que le domaine du TCAO, permet d'analyser le processus de coopération/collaboration dans les situations de travail réelles, afin de concevoir les outils de support appropriés. Dans cette perspective, cette thèse présente les principes de base d’analyse, de modélisation et d’implémentation d’un environnement informatique supportant la collaboration dans le contexte de l’apprentissage du diagnostic médical. Cet environnement est caractérisé essentiellement par l’intégration de mécanismes importants au support de la coopération/collaboration, la coordination et l'interaction de groupe lors du processus d’Apprentissage Collaboratif du Raisonnement Clinique (ACRC). Il permet en conséquence à plusieurs apprenants avec leur tuteur, géographiquement distribués, de travailler simultanément et de façon coordonnée sur un même cas clinique afin d’avoir le diagnostic médical le plus approprié. Par ailleurs, le développement de l’environnement est fondé principalement sur une étude approfondie, du processus d’ARC, que nous avons effectué, pour comprendre les méthodes habituelles sous lesquelles les étudiants apprennent ensemble. Cette étude menée, dans le milieu clinique, à travers une enquête basée sur des observations et des interviews avec des étudiants et enseignants en gynécologie et obstétrique.
- ItemApprentissage Incrémental & Machines à Vecteurs Supports. Magister thesis, (2014) Université de Batna 2.(2016-08-01) MARREF NadiaLes machines à vecteurs supports (Support Vector Machines) sont de nouvelles techniques d'apprentissage statistique proposées par V. Vapnik en 1995. Elles permettent d'aborder des problèmes très divers comme la classification, la régression, la fusion, etc. Depuis leur introduction dans le domaine de la Reconnaissance de Formes (RdF), plusieurs travaux ont pu montrer l'efficacité de ces techniques principalement en traitement d'image. L'idée essentielle des SVM consiste à projeter les données de l'espace d'entrée (appartenant à deux classes différentes) non-linéairement séparables dans un espace de plus grande dimension appelé espace de caractéristiques de façon à ce que les données deviennent linéairement séparables. Dans cet espace, la technique de construction de l'hyperplan optimal est utilisée pour calculer la fonction de classement séparant les deux classes. L‟apprentissage des SVM se ramène à résoudre un programme quadratique, la mise en oeuvre d‟un algorithme de SVM est donc coûteuse en temps et mémoire. Pour remédier à ce problème, les travaux plus récents visent à construire des algorithmes de SVM incrémentaux. Le principe des algorithmes incrémentaux est de ne charger qu‟un petit bloc de données en mémoire à la fois, de construire un modèle partiel et de le mettre à jour en chargeant consécutivement des blocs de données. Cela permet de traiter de très grandes quantités de données sans difficulté de mémoire sur une machine standard. Un algorithme incrémental peut donner des résultats approximatifs ou identiques à ceux obtenus par un algorithme d‟apprentissage chargeant une seule fois l‟ensemble entier des données. Dans ce mémoire un nouvel algorithme incrémental est proposé pour résoudre un problème d‟un SVM binaire, l‟algorithme est testé sur une base de données artificielle, et sur des paires de chiffres manuscrits extraites à partir de la base de données standard MNIST.
- ItemApproche d’apprentissage pour l’analyse des Big Data(2023) Benoughidene AbdelhalimThe development of information technology has led to the big data revolution, with the amount of data produced increasing at a high rate. Video data is a significant component of big data, and the concept of automatically analyzing this rapidly increasing video content has become a popular research topic. In such a scenario, video automatic analysis uses a new generation of information technologies, such as artificial intelligence (machine learning), which help transform traditional video analysis to be more efficient and convenient. Video summary (VS) is now one of the primary areas of study in video analysis. Despite the use of big data-driven models, producing accurate video summaries in an efficient and effective manner remains a challenging task. The most effective and efficient way to transform lengthy, unstructured videos into structured, condensed, understandable, and useful information is through the use of video summaries. The primary goal of summarizing a video is to break it down into shots and select key frames from each shot that best capture the essence and flow of the entire video. The goal of this thesis is to improve the performance of video summarization systems by enhancing the quality of analytical techniques. To achieve this goal, we proposed two contributions. First, we suggested a shot boundary detection (SBD) method to adapt key shots and exploit its potential in video summaries. This is the first step in the video summarization process, and the results have a significant impact on the quality of the final summary. The main idea behind SBD is to extract features from video frames and then identify the boundaries between shots based on the differences in the features. Second, we focused on improving video summaries using unsupervised machine learning techniques (DBSCAN) and genetic algorithms (GA) to optimize DBSCAN hyperparameters. We validated the proposed methods and results obtained through extensive comparative analysis using datasets.
- ItemApproche Multimodale basée sur l’Apprentissage Profond pour l’Identification Biométrique(2023) ABDESSALAM HATTABDue to the growing need for user identification in various modern applications, experts highly recommend incorporating biometric technology in the application development field. Recently, many recognition systems using face and iris traits obtained remarkable performance, particularly since these biometric traits are captured from a distance without physical contact with sensors. This feature reduces the potential spread of the COVID-19 pandemic and other diseases by touch and makes biometrics more convenient and user-friendly. However, the recognition systems’ performance is significantly reduced when these traits are captured under uncontrolled conditions, including occlusion, poses and illumination variation. Because the handcrafted approach used by some recognition systems extracts local features from the global image, where the image’s regions affected by the uncontrolled conditions often influence the quality of extracted features. This thesis proposed a robust face recognition system that extracts features from important facial regions, using Scale-invariant feature transform (SIFT) to identify significant facial regions and adaptive Local Ternary Pattern (ALTP) to extract features. The proposed system achieved promising results on two benchmark face datasets captured under unconstrained conditions, achieving 99.75% on the ORL dataset and 95.12% on the FERET dataset. In addition, a new face recognition system based on Deep Learning has been proposed using the pre-trained AlexNet-v2 model. The proposed system achieved excellent results on the ORL and FERET face datasets, reaching 100% on the first and 99.89% on the second. Moreover, we proposed a novel face recognition system to address the issue of illumination variation. The system used a novel model inspired by the pre-trained VGG16 model. The proposed system achieved state-of-the-art results, reaching 99.32% on the Extended Yale B dataset and 99.79% on the AR dataset. Another contribution of this work is developing a novel iris recognition system based on Transfer Learning to achieve high accuracy rates. The proposed system used the Yolov4-tiny model to localize the iris region, while a novel Deep Convolutional Neural Network (CNN) model inspired by the pre-trained Inception-v3 model was used for features extraction. The performance of this system was evaluated on four different iris databases captured under non-cooperative conditions, where it achieved a new state-of-the-art accuracy rate reaching 99.91%, 99.60%, 99.91%, and 99.19% on the IITD, CASIA-Iris-v1, CASIA-Iris-Interval, and CASIA-Iris-Thousand, respectively. The proposed unimodal systems achieved high accuracy compared to state-of-the-art methods. However, relying solely on a unimodal biometric trait is inadequate for high-security requirements in military and government applications. Finally, three face-iris multimodal biometric systems have been proposed in this thesis. The first employs the fusion of images, the second utilizes feature-level fusion, and the third is based on score-level fusion. The proposed systems used Yolov4-tiny to detect the face and both iris regions. In addition, they applied a new deep CNN model inspired by the pre-trained Xception model to extract features. To evaluate the performance of the proposed systems, a twofold cross-validation protocol is employed on the CASIA-ORL and SDUMLA-HTM multimodal benchmark databases. The results showed that our systems achieved a perfect score of 100% on both databases. Remarkably, the system utilizing score-level fusion outperformed the other systems, achieving outstanding results of 100% on the CASIA-ORL database and over 99% on the SDUMLA-HTM database, with only one sample used for training.
- ItemApproches de classification des images à grande échelle sur des architectures massivement parallèles(2021-02-22) MEZZOUDJ SalihaActuellement, l’énorme volume de données structurées et non structurées provenant de sources diverses, produites en temps réel et dépassent la capacité de stockage d‘une seule machine. En effet, ces données sont difficilement traitées avec les systèmes de recherche d‘information classique. Ce challenge nous a motivés pour élaborer un nouveau système de recherche et de classification des images permettant le stockage, la gestion et le traitement des grandes quantités d’images (Big Data) et qui imposent une parallélisation des calculs pour obtenir des résultats en temps raisonnable et avec une précision optimale. Cette thèse est organisée en deux parties. La première partie représente un état de l‘art sur le domaine de la vision par ordinateur et ces concepts de base, les technologies de Big Data spécialement les plateformes de stockage et de calcul, elles présentent aussi l’infrastructure distribuée nécessaire pour rendre ces plateformes faciles à utiliser. Dans la deuxième partie un nouveau système de recherche d’images par le contenu rapide basé sur la plateforme Spark (CBIR-S) est présenté comme une première proposition tout en ciblant les bases d’images à grande échelle (Big Data). Dans ce système nous utilisons lemodèle distribuéMapReduce sous la plateforme Spark pour traiter de grands volumes de données en parallèle en divisant le travail en un ensemble de tâches indépendantes, et afin d’accélérer le processus d’indexation nous avons utilisé également un système de stockage distribué, qui s’appelle Tachyon; et afin d’accélérer le processus de recherche nous utilisons l’algorithme parallèle de K-plus proches voisins (k-NN) de classification basée sur le modèle MapReduce implémenté sous Apache Spark.De plus, nous exploitons la méthode de cache de spark. Notre approche proposée permet d’accélérer les temps d’indexation, et de classification, tout en gardant les précisions des méthodes. Les tests effectués sur une base d’images ImageCLEFphoto 2008 montrent les avantages de système proposé. Comme une deuxième proposition, nous introduisons une nouvelle méthode de classification des races dans des base d’images faces à grande échelle basée sur la méthode Local Binary Pattern (LBP) et la méthode de régression logistique (LR) sous la plateforme Spark pour traiter d’une manière parallèle une grande échelle des faces. L’évaluation de notre méthode proposée a été effectuée sur la combinaison de deux grandes bases d’images de visage CAS-PEAL (partie de pose) et Color FERET. Deux races ont été considérées pour ce travail, y compris les races asiatiques et non asiatiques. Par comparaison, notre méthode avec les classificateurs SVM linéaires, bayésiens naïfs (NB), forêts aléatoires (RF) et arbres de décision (DT) de Spark, nous avons obtenu une précision moyenne de 99,99%, les résultats montrent que notreméthode est très compétitive. Mots clés : Big Data; système de recherche d’images; classification; les technologies de Big Data; k-NN parallèle ; spark, Tachon; cache; classification des races; LR; NB; RF; DT.
- ItemApproches Evolutionnaires Hybrides pour Le Tatouage Numérique des Images.(2018-07-22) GOLEA Nour El-HoudaAu cours de ses des dernières années, le passage vers le monde numérique offre aux utilisateurs plusieurs commodités, pour utiliser, traiter, stocker et transmettre leurs données. En outre, l’évolution rapide et sans cesse des systèmes d’acquisition d’images a permis un formidable essor de l’utilisation de l’image numérique. En effet, la numérisation est une épée à double tranchant, elle offre plusieurs bénéfices d’une part et pose des problèmes de sécurité d’autre part. Pour cette raison, il est obligatoire de concevoir des systèmes de protection des images numériques contre toutes manipulations illégales. Dans ces dernières décennies, le tatouage numérique, une technique brillante proposée pour répondre à plusieurs aspects de la sécurité. Le principe de cette technique est d’implanter un signal numérique appelé watermark dans un autre signal numérique appelé signal hôte (texte, image, audio, vidéo, ...). Dans ce cadre, nous proposons dans cette thèse des nouvelles approches de tatouage numérique des images. La première contribution consiste à proposer une nouvelle approche évolutionnaire à base des algorithmes génétiques pour la protection de droit d’auteurs des images couleurs RGB. L’objectif de cette approche est d’optimiser les deux exigences contradictoires du tatouage : l’imperceptibilité et la robustesse. La deuxième et la troisième contributions décrient des nouvelles approches de tatouage appliquées à l’imagerie médicale. Ces deux approches sont inspirées de la transmission en réseau où l’utilisation des codes détecteur et correcteur des erreurs est apparu naturel. Une de ces approches repose sur l’utilisation du code détecteur des erreurs (CRC) afin de garantir l’authentification de la région d’intérêt de l’image médicale. Tandis que, l’autre utilise un code correcteur des erreurs (RS) pour assurer en plus de l’authentification, l’intégrité. Dans la quatrième contribution, nous proposons une nouvelle approche de tatouage de deuxième génération basée sur les Diagrammes de Voronoi VD et le code CRC en utilisant des polynômes standard de degré élevée ayant des propriétés mathématiques particulières comme CRC-32, CRC-16 et CRC-8 pour générer le watermark. Ce dernier est inséré dans chaque région de l’image après une décomposition en utilisant VDs
- ItemApproches évolutionnaires multi-biométriques pour l’identification des personnes.(2019-10-08) BOUCETTA AldjiaCette thèse porte sur l’étude des approches évolutionnaires pour la biométrie. Précisément, l’objectif est de proposer des approches multi-biométrices efficaces pour l’authentification de personnes basées sur les signatures biométriques. Dans cette thèse, d’abord, nous proposons une nouvelle méthode de reconnaissance de la main qui combine les moments invariants d’Hu et les moments de Legendre, en tant que nouvel extracteur de caractéristiques. Puis, nous proposons l’utilisation de PSO comme technique évolutive permettant de combiner la modalité du visage, de l’iris et de palmprint au niveau du score. Dans ce système, nous utilisons trois algorithmes d’extraction de caractéristiques (transformation de Gabor, transformation DWT et transformation de Contourlet) pour extraire les principales caractéristiques biométriques. Ensuite, PCA, LDA et KFA sont utilisés pour la réduction de dimensionnalité des vecteurs de caractéristiques. Finalement, nous proposons un système biométrique multimodal efficace basé sur le Deep Learning. Pour cela, nous explorons deux approches basées sur CNN(Convolutional Neural Network) en utilisant un modèle préentraînement téléchargé de la littérature (squeezenet). Dans le premier approche, nous essayons de classer les objets en fonction de leurs caractéristiques distinctes et prenons donc une décision de classification finale basée sur les autres décisions. Nous pouvons utiliser un élément du modèle, tel que l’extracteur de caractéristiques, ou le fine-tuning en l’adaptant à notre tâche au lieu d’imagenet avec 1000 classes. Dans la deuxième approche, les vecteurs de caractéristiques sont extraits séparément, en utilisant squeezenet pour extraire les caractéristiques profondes des modalités, nous prenons les caractéristiques de la couche 66 et nous combinons ces vecteurs pour former un vecteur de caractéristiques composites. Ensuite fait une classification à l’aide de SVM.
- ItemAR-MAS : Approche Multi-Agent Basé-Rôles pour Systèmes Adaptatifs. Magister thesis (2015)(2016-08-01) KEMCHI SofianeL’informatique envahie chaque jour de nouveaux domaines d’applications de plus en plus complexes. De telles applications ont des besoins qui varient dans le temps et dans l’espace. Tenir compte de cette variabilité au cours du développement est très difficile. Il faut alors doter de tels systèmes de capacités d’auto-adaptation leur permettant d’adopter des aspects ne pouvant être fixés directement dans le développement initial. Plusieurs approches ont été proposées pour mettre en oeuvre l’adaptation de systèmes. Cependant, le problème encore ouvert et beaucoup de travail reste à faire dans ce domaine. Dans ce projet, nous visons une approche multi-agent pour l’auto-adaptation. La suprématie des modèles multi-agent sur les approches classiques vient des aspects d’autonomie des agents et de leur coopération dans la mise en oeuvre des tâches. La première permet des adaptations locales des comportements des agents sans influencer le reste du système. Ce qui simplifie amplement le processus d’adaptation. La seconde permet d’avoir différentes configurations du système multi-agent pour la mise en oeuvre d’une tâche donnée. Ce qui offre à un ensemble d’agents plusieurs possibilités pour atteindre ses objectifs. Plusieurs inspirations ont été utilisées pour le développement de systèmes multi-agent. La plus concrète d’entre elles est celle basée organisation de rôles. Cependant, peu de travaux ont abordé les systèmes multi-agent adaptatifs avec une inspiration basée organisation. Dans notre mémoire on propose une approche pour l’adaptation des systèmes multi-agent basés organisation de rôles, une approche capable de répondre aux contraintes d’un environnement ouvert, dynamique et en constante évolution. Pour cela nous prenons pour base le concept d’adaptation du système multi-agent par une réorganisation d’assignation des rôles aux agents. Comme moyen technique nous utilisons les systèmes multi-agents basés organisation (auto-organisation) des rôles, La fonction globale du système est une fonction émergente guidée par des contraintes d’organisation.
- ItemArchitecture Parallèle pour l’accélération de la recherche dans les routeurs IP. Doctorat thesis,(2012) Université de Batna 2.(2016-08-01) HOUASSI HichemLe réseau Internet est composé de noeuds et de routeurs reliés ensemble par des médias de transmission (liens). Les paquets de données transitent sur les liens, d'un routeur à un autre, vers leurs destinations finales. Chaque routeur exécute une décision d’expédition sur les paquets entrants pour déterminer le prochain routeur du paquet. Le routeur Internet est un dispositif permettant de choisir le chemin que les paquets de données vont emprunter pour arriver à leurs destinations. Pour ce faire, le routeur effectue une recherche dans la table de routage en utilisant l’adresse de destination d’un paquet IP comme une clé ; cette tâche du routeur est appelée décision de routage. La croissance du nombre d'utilisateurs d'Internet à comme conséquence l’augmentation des tailles des tables de routage des routeurs et la complexité de l’opération d’expédition des paquets de données. La décision de routage consiste à chercher la meilleure route pour un paquet à partir de son adresse IP destination. Afin d’augmenter l’efficacité du routage dans l’Internet, plusieurs adresses destination sont agrégées en une seule entrée dans une table de routage (préfixe). Depuis l’avènement du CIDR (Classless Inter-Domain Routing), les préfixes dans la table de routage ont des longueurs variables, alors plusieurs préfixes peuvent être associés à une même adresse IP de destination, le routeur doit choisir le plus long préfixe correspondant (PLP) à l’adresse IP. Etant donné que les préfixes dans la table de routage ont des longueurs différentes, alors, nous ne pouvons pas trouver la correspondance en utilisant un algorithme de recherche avec une correspondance exacte. Par conséquent, les performances du routeur dépendent fortement de l'efficacité de l'opération de recherche du plus long préfixe dans la table de routage. Différentes approches logicielles et matérielles ont été proposées et déployées pour améliorer les performances des routeurs, et dont la métrique de performance a été principalement le débit ou le nombre de paquets expédiés par seconde. Dans cette thèse nous avons proposé trois mécanismes de recherche du plus long préfixe correspondant à une adresse IP dans une table de routage, les mécanismes que nous avons proposés dans cette thèse contribuent à améliorer la performance de l'acheminement de paquets dans les routeurs IP.
- ItemAuto-adaptation dans les RCSF hétérogènes pour des e-applications(2018-06-10) Naidja MiloudEn fonction de l'application, différentes architectures et protocoles ont été considérés pour les réseaux de capteurs. La topologie de déploiement des capteurs dans les RCSF dépend de l'application et affecte les performances des protocoles de sous-couche comme le protocole de routage. Vraiment, la pertinence d'un protocole de routage particulier dépend principalement des capacités des noeuds )contraintes, homogènes avec les mêmes caractéristiques, hétérogènes avec des capacités différentes …etc.) et sur les exigences de l'application. Le déploiement du réseau est soit déterministe, soit auto-organisé. De nombreux schémas de routage et d'auto-adaptation ont été proposés pour les réseaux de capteurs. La topologie hiérarchique dans les RCSF répond aux exigences de conservation d'énergie et de QoS dans un environnement homogène. Dans de tels réseaux, un algorithme spécifique est appliqué au niveau de tous les noeuds capteurs. Sur cette base, nous avons proposé deux solutions pour l'auto-adaptation dans les RCSF homogènes et hétérogènes. La première proposition considère un routage hétérogène en appliquant différentes stratégies qui seront les plus appropriées dépendamment d’une application en fonction des paramètres spécifiques dans chaque cluster. Cette approche conduit à un nouveau protocole d'auto-adaptation basé sur l'hétérogénéité des protocoles de routage dans les RCSF. La proposition utilise un ensemble de mécanismes qui ont été adoptés dans des protocoles bien connus (HEEP, APTEEN, LEACH, PEGASIS ...) en tenant compte de leurs forces et faiblesses. Les simulations effectuées sous NS2 montrent que notre proposition, basée sur un protocole de routage hétérogène, prolonge la durée de vie du réseau par rapport à HEEP, PEGASIS et autres. La deuxième solution présente un protocole de routage HEEP-AO (HEEP-Auto-Organisé): un protocole de routage hybride, qui est une extension du protocole HEEP. La solution est efficace pour l'auto-organisation au niveau des noeuds ordinaires, cluster-heads et station de base. Elle est appropriée pour des applications nécessitant une fiabilité et une tolérance aux pannes car elle garantit que toutes les données soient transmises correctement à la station de base malgré la présence de différents types de défauts, dus à l'énergie, aux pannes matérielles, aux erreurs de communication et aux attaques malveillantes ... etc.
- ItemAutomatic multi-documents text summarization using Binary Biology Migration Algorithm(2024) Mohamed BOUSSALEMAs the World Wide Web continues to expand, the process of identifying pertinent information within its vast volume of documents becomes increasingly challenging. This complexity necessitates the development of efficient solutions, one of which is automatic text summarization; an active research area dedicated to extracting key information from extensive text. The difficulties are further compounded when addressing multi-document text summarization, due to the diversity of topics and sheer volume of information. In response to this issue, this study introduces a novel approach based on swarm intelligence algorithm called biology migration algorithm (BMA). Our proposed approach is; Binary Biology Migration Algorithm for Multi-Document Summarization (BBMA-MDS). Viewing multidocument summarization as a combinatorial optimization problem, this approach leverages the biology migration algorithm to select an optimal combination of sentences. Evaluations of the proposed algorithm's performance are conducted using the ROUGE metrics, which facilitate a comparison between the automatically generated summary and the reference summary, commonly known as the 'gold standard summary'. For a comprehensive evaluation, the well-established DUC2002 and DUC2004 datasets are employed. The results demonstrate the superior performance of the BBMA-MDS approach when compared to alternative algorithms, including firefly and particle swarm optimization, as indicated by the selected metrics. This study thus contributes effectively according to the evaluation to the field by proposing BBMA-MDS as an effective solution for the multi-document text summarization problem.
- ItemCA-SPL : Ligne de Produits Logiciels Pour Systèmes Sensibles au Contexte. Magister thesis,(2015)(2016-08-01) FERRAH AbdelhafidLes applications mobiles s‟exécutent dans des environnements où le contexte change d‟une façon continue. Donc, il est nécessaire de fournir un support d‟auto-adaptation dynamique, afin de permettre aux systèmes d‟adapter leurs comportements selon le contexte de l‟exécution. Ce support est actuellement accompli par des plateformes d‟intergiciels, qui offrent un service de reconfiguration dynamique sensible au contexte. Cependant, le défaut principal d‟approches existantes soit qu‟elles ne sont pas convenables pour les appareils mobiles ou elles utilisent un algorithme génétique (AG) au moment de l‟exécution pour générer un plan de reconfiguration. L‟exécution d‟un AG sur un appareil mobile provoque le disfonctionnement de certains services avec des configurations produites presque justes (86-90%). Dans ce mémoire, on présente une approche combinée des réseaux de neurones (RN) multicouches et des algorithmes génétiques, afin de permettre la génération automatique d‟un plan de reconfigurations au moment de l‟exécution, sans diminuer les performances de l‟appareil. L‟utilisation de RN lors de l‟exécution afin de produire un plan de reconfiguration est achevé par : (1) avoir les informations sur la variabilité du contexte et d‟applications, (2) l‟utilisation d‟AG pour générer des configurations optimales pour chaque situation de contexte, dont le but de produire des exemples d‟apprentissages, (3) l‟exécution de l‟algorithme d‟apprentissages de RN au moment de la conception afin d‟adapter ses poids à l‟ensemble d‟exemples générés, et finalement (4) le RN est utilisé au moment d‟exécution dans le but de générer un plan de reconfigurations dans un temps optimal. Nous avons spécifié un cas d‟étude et l‟évaluation de notre approche, les résultats montrent que l‟exécution de notre approche est efficace.
- ItemClassification et Reconnaissance d’Objets en Utilisant les Points d’Intérêt. Magister thesis, (2009) Université de Batna 2.(2016-08-03) LAKEHAL ElkhamssaCe mémoire, inscrit dans le domaine de la reconnaissance d’objets et plus particulièrement les descripteurs locaux, présente un nouveau détecteur des points d’intérêt, que nous appellerons points de focus. La conclusion à laquelle ont abouti plusieurs études psychologiques est que la symétrie attire l’attention. En conséquence, la détection des centres de symétrie donne des points ayant une grande importance par rapport au système visuel humain et sont donc plus appropriés à la reconnaissance d’objets. L’objectif de beaucoup de travaux est la recherche des points d’intérêt dans les fortes variations du signal. Malheureusement, en l’absence de ces variations les approches s’avèrent inefficaces. Par contre, l’utilisation des centres de symétrie se présente comme une solution intéressante. Le but de l’exploitation de ce nouveau détecteur est l’extraction de primitives de focus qui ont une signification visuelle. En prenant comme point de départ les travaux cités dans la littérature, nous apportons une amélioration consistant en l’utilisation de la couleur pour enrichir la détection et la robustesse des points détectés