Faculté des mathématiques et d'informatique
Permanent URI for this community
Browse
Browsing Faculté des mathématiques et d'informatique by Issue Date
Now showing 1 - 20 of 224
Results Per Page
Sort Options
- ItemSystèmes bio-inspirés pour le traitement de l'information:Application du DNA computing à la réslution de problèmes NP-complets.(2006) Magister thesis, Université de Batna 2.(University of Batna 2, 1/12/2017) AKSA, KarimaLa solution d'un problème combinatoire, quand elle existe, peut être déterminée par l'énumération d'un ensemble fini E de possibilités. S'il y a un algorithme simple pour tester si un élément de cet ensemble est une solution, on dispose d'un algorithme pour trouver une solution au problème en testant toutes les possibilités. Mais le cardinal de E est souvent exponentiel par rapport à la taille des données, ce qui rend l'énumération impossible dans un temps raisonnable. Il existe de très nombreux problèmes d'un grand intérêt pratique pour lesquels on ne connaît pas d'algorithme plus efficace qu'un test portant sur tous les sous ensembles d'un ensemble, ce qui implique un temps de calcul exponentiel par rapport à la taille de l'ensemble. De nos jours, certains problèmes nécessitent, pour être résolue une capacité de calcul phénoménale. L'ordinateur actuel étant limité dans sa puissance de calcul constitue une barrière dans la résolution de tels problèmes. C'est dans cette optique que de nouveaux concepts d'ordinateurs sont développés. Ainsi on tente de mettre sur pied des ordinateurs quantiques et des ordinateurs moléculaires. Ces derniers représentent certainement l'alternative de demain aux ordinateurs actuels. En utilisant l'ADN, contrairement aux ordinateurs actuels, cela permet de réaliser des opérations en parallèles (multitask) avec des vitesses de calculs phénoménales. De plus, l'ADN constitue un excellent moyen de stockage de données et ne demande qu'un apport infime en énergie. L'expérience qui a éveillé le monde des ordinateurs à ADN est celle d'Adleman. En 1994, Adleman, qui est un mathématicien de l’université de Californie du sud et qui possède également des connaissances en biologie, à résolut grâce à un ordinateur moléculaire le problème de chemin haméltonien (HPP : Hamiltonian Path Problem). Depuis l’expérience originale d’Adleman, des inondations d’idées ont été proposées pour la résolution des différents problèmes NP-complets. Dans ce mémoire, deux nouveaux algorithmes ont été proposés pour résoudre deux problèmes NP-complets : le Problème de Voyageur de Commerce (TSP : Traveling Salsmen Problem), et celui de la Satisfaisabilité (SAT : Satisfiability problem). Théoriquement, ces deux algorithmes proposés et d’autres types d’algorithmes peuvent être exécutés également avec succès. Mais pratiquement ils seront très difficiles pour l’application, car ici on travaille avec la biologie qui nécessite la prudence pour appliquer des opérations biologiques, tel que la dénaturation, sur des molécules vivantes. Malgré le fait que les ordinateurs moléculaires (ordinateurs d’ADN) semblent être très performants, ils possèdent de nombreux aspects négatifs. Ils ne peuvent résoudre que des problèmes combinatoires (pas de possibilité de traitement de texte ou de jeu sur de tels ordinateurs), ils peuvent être très lents dans la résolution de problèmes simples pour des ordinateurs classiques. Les réponses qu'ils fournissent peuvent être extrêmement compliquées. D'autre part la fiabilité de ces ordinateurs peut être remise en cause du fait de la capacité de la mutation de l'ADN
- ItemAlgorithme Génétique pour le Problème d’Ordonnancement dans la Synthèse de Haut Niveau pour Contrôleurs Dédiés. Magister thesis,(2006) Université de Batna 2.(University of Batna 2, 1/12/2017) AMOKRANE SamahLe progrès offert par la technologie de fabrication des circuits micro-électroniques a ouvert la voie à la conception de systèmes digitaux d’une grande complexité. D’où la nécessité progressive de concevoir des circuits à de plus haut niveaux d’abstraction comme le niveau algorithmique. La synthèse de haut niveau consiste en la traduction d’une description comportementale (algorithmique) en une description équivalente au niveau transfert de registres. Le processus de synthèse de haut niveau est composé de plusieurs phases entre autres la phase d’ordonnancement. Cette phase, qui a une grande influence sur la qualité du circuit final, définit une date d’exécution pour chaque opération de la description algorithmique tout en respectant certaines contraintes. Une grande variété d’algorithmes existe dans la littérature pour résoudre efficacement le problème d’ordonnancement, reconnu comme étant un problème NP-Complet. Cette thèse présente un aperçu sur les différentes techniques d’ordonnancement connues actuellement. Ces algorithmes ont été classifiés, selon leur domaine d’application, en deux catégories : des algorithmes orientés flot de données et ceux orientés flot de contrôle. Pour chaque catégorie un ensemble d’algorithmes sont décrits brièvement. Finalement, on propose une technique d’ordonnancement GPBS, pour les circuits de contrôle, basée sur la combinaison de l’algorithme d’ordonnancement à base de chemins et d’un algorithme génétique.
- ItemSynthèse de Nouvelles Vues Pour Les Applications en Réalité Augmentée. Magister thesis,(2006) Université de Batna 2.(University of Batna 2, 1/12/2017) DIB, AbderrahimLa synthèse d'images a pour but de calculer des vues aussi réalistes que possible d'une scène tridimensionnelle définie par un modèle géométrique 3D, augmentée de certaines informations photométriques : couleurs, textures, matériaux, et nature de leurs interactions avec la lumière. Classiquement, pour ces applications, il est nécessaire d'effectuer une première étape de modélisation manuelle de chaque élément de la scène à synthétiser, puis une étape de rendu pour générer les images finales de cette scène. Ce type de synthèse présente des limitations en terme de temps de modélisation et de qualité des résultats. Pour remédier à ces problèmes, ce qui est proposé est de définir la scène non pas par un modèle géométrique tridimensionnel, mais par des vues (bidimensionnelles) réelles de cette scène dans le but de synthétiser de nouvelles vues uniquement à partir des vues de départ en simulant le déplacement de la caméra qui a pris les vues réelles. Les techniques permettant de synthétiser de nouvelles vues à partir des vues réelles d’une scène sont appelés communément les méthodes de modélisation et rendu basés image (Image Based Modeling and Rendering : IBMR). Les techniques d’IBMR ont trouvé des applications passionnantes dans plusieurs domaines, dont la réalité augmentée, qui consiste à augmenter la perception visuelle du monde réel par l'insertion réaliste d'objets visuels dans un environnement réel. Le but d’utiliser les techniques d’IBMR dans les applications de la réalité augmentée est d’améliorer la modélisation d’environnements augmentés, tant au niveau de la précision et de la rapidité de conception, qu’au niveau du réalisme. Dans ce contexte de travail nous avons proposé une approche qui combine deux méthodes d’IBMR pour la reconstruction d’objets 3D réalistes. La première est la reconstruction à partir d’images stéréo et la deuxième est une technique appelée ‘enveloppe visuelle’. Ces deux méthodes sont complémentaires en nature. la technique de l’enveloppe visuelle est une première forme de l'objet qui limite au minimum l’espace englobant cet objet, ce qui aide les algorithmes stéréo à éviter des calculs inutiles pour des endroits en dehors du volume de l'objet. Les méthodes de la stéréovision raffinent le modèle reconstruit de l’objet par la détection des points et des régions concaves sur la surface de l’objet.
- ItemSuivi de modèle et Incrustation d’Objets Virtuels pour la Réalité Augmentée. Magister thesis,(2006) Université de Batna 2.(University of Batna 2, 1/12/2017) BADECHE, MohamedLa réalité augmentée est une technologie qui permet l’insertion d’objets virtuels 2D ou 3D dans des scènes du monde réel en temps réel. La majorité des avancées dans la réalité augmentée ont eu lieu ces Dix dernières années. Les systèmes de composition d’images sont aujourd’hui utilisés aussi bien pour la production d’effets spéciaux (cinéma ou publicité), que pour la reconstruction visuelle de faits ou de structures historiques. Par contre, les applications à base de HMD (Head Mounted Display) sont plus expérimentales que réellement utilitaires. Nous trouvons en particulier des applications dans les domaines de la médecine, militaire, l’assistance en milieu industriel et le design intérieur ou du jeu. Les techniques de suivi (Tracking) basées modèles sont très prometteuses pour les applications de réalité augmentée. Dans ce mémoire nous décrivons une méthode basée sur le suivi d’un modèle 2D le long d’une séquence vidéo tout en respectant la contrainte temps sur de simples ordinateurs de bureau. D’abord, une recherche d’un pattern bien défini dans la première prise de vue de la séquence vidéo est effectuée moyennant une mise en correspondance entre cette dernière et le pattern en question. Ensuite, un suivi des primitives coins du pattern est appliqué en exploitant les capacités de prédiction du filtrage de Kalman discret. Enfin, l’augmentation proprement dite de la scène par l’objet choisi est effectuée. Une estimation robuste de l’homographie planaire nécessaire pour l’incrustation de l’objet 2D dans la scène est assurée par l’utilisation d’une variante de l’algorithme RANSAC. Les résultats obtenus par application de la méthode sur plusieurs séquences d’images sont très prometteurs et démontrent son efficacité et son respect à la contrainte temps réel sur de simples ordinateurs de bureau
- ItemSécuriser les images numériques par une approche probabiliste(University of Batna 2, 1/14/2018) HAMZA RafikLa plupart des entreprises, coopèrent et communiquent via Internet, où une quantité importante d’informations est stockée, traitée et transmise selon un processus numérique. Cependant, ces données deviennent vulnérables à l’interception, la duplication, la falsification ou la corruption. Ainsi, la nécessité de sécuriser des images numériques devient primordiale. Le principal objectif de cette thèse est d’assurer la sécurité d’images numériques au moyen de techniques de cryptographie modernes notamment les approches probabilistes. À cet égard, la sécurité de l’image numérique peut être améliorée grâce à une technique aléatoire qui rend le cryptosystème sémantiquement sécurisé. L’objectif de cette thèse est élaborée est deux parties. La première partie se concentre sur la terminologie des images numérique. En outre, nous présentons certains mécanismes de sécurité qui pourraient garantir la confidentialité des images numériques et fournir un niveau élevé de sécurité dans diverses applications de communication. La deuxième partie se concentre sur nos contributions de recherches. Dans ce contexte, un générateur de nombres pseudo-aléatoire basé sur le système chaotique de Chen est proposé, il permet de produire une séquence de clés cryptographiques appropriées pour le chiffrement des images numériques. Nous avons aussi proposé un nouvel algorithme de cryptage d’images basé sur la carte chaotique de Zaslavsky. Ce dernier garantit d’une manière efficace la confidentialité des images numériques. En plus, nous avons proposé un cadre théorique basé sur l’algorithme de chiffrement précédemment proposé. La technique ainsi élaborée est basée sur la synthèse d’une vidéo endoscopique en utilisant des capsules sans fil. Elle garantit une transmission sécurisée et ceci en effectuant une extraction des frames les plus pertinents. Les cryptosystèmes ainsi proposés ont une bonne capacité de résister aux différents types d’attaques notamment les attaques choisies, connus et aux attaques différentielles. Une étude expérimentale a montré que les résultats trouvés sont excellents et dotés de performances de haut niveau comparés aux techniques classiques.
- ItemEtude théorique et numérique de quelques méthodes de points intérieurs pour l'optimisation semi-définie. Doctorat thesis (2021), Université de Batna 2(University of Batna 2, 1/24/2021) LAOUAR MouniaIl est bien connu que les méthodes de points intérieurs sont les plus efficaces pour résoudre les problèmes d'optimisation. Ces méthodes se caractérisent par leur convergence polynomiale à la frontière et leur bon comportement numérique pour trouver la solution. Dans cette recherche, nous nous intéressons à une étude théorique, numérique et algorithmique des méthodes de points intérieurs pour le problème de complémentarité linéaire. En effet, nous nous intéressons à une méthode de trajectoire centrale via une fonction noyau, nous avons proposé de nouvelles fonctions noyau qui donnent les résultats de complexité les plus connus
- ItemConvergence d’échelle en homogénéisation des fonctionnelles intégrales non convexes. Doctorat thesis, (2021) Université de Batna 2.(University of Batna 2, 1/24/2021) BENHADID AYACHEDans cette thèse, une étude approfondie est débutée sur les concepts d’ensembles et de fonctions E-convexes, puis on a introduit l’analyse limite par Gamma-convergence et la convergence d’échelle des fonctionnelles intégrales E-convexes. À travers notre recherche bibliographique, nous avons présenté et corrigé quelques travaux sur les inégalités variationnelles générales et leurs systèmes. Enfin, une nouvelle classe de fonctions noyau qui diffère de celles existantes, dans lesquelles elle a un double terme barrière, est introduite pour l’optimisation linéaire Mots clés : fonctions E-convexes, Gamma-convergence, Inégalités variationnelles, Optimisation linéaire.
- ItemOPTIMISATION DES ACCÈS MÉMOIRE POUR LES ARCHITECTURES MULTI-COEURS.(University of Batna 2, 1/3/2021) BAROUDI ToufikWith the aim of increasing performance, the architecture of processors has evolved into multicore and manycore platforms composed of multiple processing units. However, the difficulty of programming these architectures often hinders taking full advantage of the potential of its processing units. This has motivated the compilation research community to develop alternative solutions, the goal of which is to free the programmer from the details of target architectures, while generating programs as efficient as possible. This is the area of research in parallelization and automatic code optimization. In almost all programs, loop nests account for most of the computing time. To optimize the execution of these code parties, the compilers apply transformations to them in order to improve the spatial and temporal locality of the memory accesses. The majority of these transformations are based on the polyhedral model which is a formalism allowing to represent iterations and references to arrays by points with integer coordinates of bounded polyhedra. Optimizing linear algebra programs has been one of the issues that has caught the attention of the code optimization research community for many years. In particular, operations on sparse matrices are part of the key calculation codes in many scientific and engineering applications. Consequently, several alternative storage formats have been proposed in order to store these matrices and to calculate only the non-zero elements. In this thesis, we first introduce a new approach to optimize matrix operations on particular sparse matrices using a dense data structure called the 2d-Packed format. The basic idea is that matrix operations using this new data structure can be automatically optimized and parallelized using source-to-source compilers based on the polyhedral model, such as Pluto. This work has improved the performance of a number of benchmarks in linear algebra. Second, we presented a study on the effect of allocation types, static and dynamic, on benchmark performance using the proposed data structure and certain linear algebra kernels of the PolyBench suite. Keywords : Multicore architecture, Optimization and parallelization of codes, Sparse matrices, Polyhedral model, 2d-Packed format.
- ItemCodes sur les anneaux. Doctorat thesis, (2020) Université de Batna 2.(University of Batna 2, 1/6/2021) MELAKHESSOU, AhlemThis work has reached this level by producing two journal papers and four conference papers. The first journal paper is entitled, « On Codes over Fq+vFq+v2Fq », it appeared in Journal of Applied Mathematics and Computing, 2017. In this paper we investigated linear codes with complementary dual (LCD) codes and formally self-dual codes over the ring R = Fq+vFq+v2Fq, where v3 = v, for q odd. We give conditions on the existence of LCD codes and present construction of formally self-dual codes over R. Further, we give bounds on the minimum distance of LCD codes over Fq and extend these to codes over R. The second journal paper is entitled, « Zq(Zq + uZq)−Linear Skew Constacyclic Codes », it appeared in Journal of Algebra Combinatorics Discrete Structures and Applications. In this paper we study skew constacyclic codes over the ring ZqR, where R = Zq + uZq, q = ps for a prime p and u2 = 0. We give the definition of these codes as subsets of the ring Z�q R�. Some structural properties of the skew polynomial ring R[x, �] are discussed, where � is an automorphism of R. We describe the generator polynomials of skew constacyclic codes over ZqR, also we determine their minimal spanning sets and their sizes. Further, by using the Gray images of skew constacyclic codes over ZqR we obtained some new linear codes over Z4. Finally, we have generalized these codes to double skew constacyclic codes over ZqR. The third paper is entitled, « Formally Self-dual Codes over Ak », it was presented at CMA- 2014 (Tlemcen). In this paper we present several kinds of construction of formally self-dual codes over the ring Ak = F2 [v1, . . . , vk] / hv2 i = vi, vivj = vjvii. The fourth paper is entitled, « LCD Codes over Fq +vFq +v2Fq », it was presented at CMA- 2016 (Batna). The purpose of this work is to investigate linear codes with complementary dual(LCD) codes over the ring R = Fq + vFq + v2Fq, where v3 = v, for q odd. The fifth paper is entitled, « Zq(Zq + vZq + . . . + vm−1Zq)− Linear Cyclic, Skew Cyclic and Constacyclic Codes », it was presented at ECMI-SciTech’2017 (Constantine). In this paper, we study cyclic, skew cyclic and constacyclic codes over the ring Zq(Zq + vZq + . . . + vm−1Zq), where q = ps, p is a prime and vm = v. We give the definition of these codes as subsets of the ring Z�q R�. The sixth paper is entitled, « Double Skew (1+u)−Constacyclic Codes over Z4(Z4+uZ4) », it was presneted at IWCA-2019 (Oran). In this paper, we study skew constacyclic codes over the ring Z4R where R = Z4 + uZ4, for u2 = 0. We give the definition of these codes as subsets of the ring Z�4 R�. Further, we have generalized these codes to double skew (1+u)−constacyclic codes over Z4R. Keywords: Formally self-dual codes, LCD codes, optimal codes, Gray map, automorphism, skew constacyclic codes, skew polynomial rings, double skew constacyclic codes.
- ItemEstimation d'illuminant pour l'analyse d'image(University of Batna 2, 10/24/2017) LAKEHAL ElkhamssaDans ce travail, nous nous intéressons au problème d'estimation de la couleur d'illuminant pour des -ns d'analyse d'image. Nous présentons deux algorithmes d'estimation d'illuminant global pour l'image et un algorithme pour le cas des illuminants multiples par image. Tous les algorithmes proposés sont basés sur les lois de physique. Nos algorithmes utilisent notre nouvelle hypothèse de dispersion maximale des projections de données image et l'analyse en composante principale. En e-et, l'hypothèse proposée est validée sur une grande collection d'images et utilisée par la suite pour l'estimation de la couleur de l'illuminant. Notre estimateur d'illuminants multiples suppose que la distribution spectrale de la source lumineuse n'est pas identique sur toute la scène, ce qui est le cas d'un nombre important d'images. Dans de tels cas, notre nouvel estimateur multi-illuminant récupère des estimations exactes pour chaque pixel de l'image en entrée tout en restant rapide. L'évaluation des algorithmes proposés sur diérentes collections d'images réelles a été réalisée. Les résultats expérimentaux sont satisfaisants ; nos algorithmes pré- sentent un compromis entre l'exactitude (erreur d'estimation d'illuminant) et la rapidité. Nous présentons aussi une nouvelle application pour la classi -cation des lumières nocturnes par leurs couleurs. À notre connaissance, nous sommes les premiers qui proposent d'estimer et de classier les couleurs des lumières dans les photos prises en nuit pour des -ns de prévention de la santé publique et les écosystèmes. L'application proposée estime les couleurs des lumières à partir de photos prises en nuit en utilisant une caméra commerciale. La classication des couleurs de lumières estimées avec l'algorithme k-means en trois classes blanche, bleue et rouge aide les chercheurs à faire des analyses approfondies avec les images de lumières nocturnes
- ItemFouille de Texte et Analyse pour Extraction/Découverte de la Connaissance du Saint Coran(University of Batna 2, 10/24/2017) BENTRCIA RahimaThere is an immense need to information systems that rely on Arabic Quranic text to present a precise and comprehensive knowledge about Quran to the world. This motivates us to conduct our research work which uses Quran as a corpus and exploits text mining techniques to perform three different tasks: extracting semantic relations that exist between words linked by AND conjunction, analyzing the order of the words of that conjunctive phrase, and finally measuring the similarity between Quran chapters based on lexical and statistical measures. Since semantic relations are a vital component in any ontology and many applications in Natural Language Processing strongly depend on them, this motivates the development of the first part in our thesis to extract semantic relations from the holy Quran, written in Arabic script, and enrich the automatic construction of Quran ontology. We focus on semantic relations resulting from proposed conjunctive patterns which include two words linked by the conjunctive AND. These words can be nouns, proper nouns, or adjectives. The strength of each relation is measured based on the correlation coefficient value between the two linked words. Finally, we measure the significance of this method through hypothesis testing and Student t-test. Moreover, some aspects of semantic relations that may exist between words are inspired from patterns of word co-occurrences. Hence, statistics performed on these patterns are very useful to provide further information about such relations. This fact induces conducting the second part in our research, which is an analytical study, on one type of these patterns called the AND conjunctive phrases, that exist in the holy Quran. First, we propose a set of AND conjunctive patterns in order to extract the conjunctive phrases from the Quranic Arabic Corpus which we convert to Arabic script. Then, we analyze the order of the two words that form the conjunctive phrase. We report three different cases: words that have occurred in a specific order in the conjunctive phrase and repeated only once in the Quran, words that have occurred in a specific order in the conjunctive phrase and repeated many times in the Quran, and words that have occurred in different positions in the conjunctive phrase and repeated one or many time(s) in the holy Quran. Finally, we show that different word orders in the conjunctive phrase yield different contextual meanings as well as different values of association relationship between the linked words. Similarity Measure between documents is a very important task in information retrieval. However, a crucial issue is the selection of an efficient similarity measure which improves time and performance of such systems.. In the last part of our thesis, we present a lexical approach to extracting similar words and phrases from Arabic texts, represented by Quran chapters (Surah). Furthermore, we measure the similarity value between these chapters using three different statistical metrics: cosine, Jaccard, and correlation distances.
- ItemIdempotents et inverses généralisés. Doctorat thesis (2021), Université de Batna 2.(University of Batna 2, 10/27/2021) Kara AbdessalamOn s’intéresse dans ce travail aux problèmes d’inverses généralisés de matrices partitionnées d’opérateurs linéaires, ce travail est une continuation approfondie de la thèse du magister présentée par le candidat sur le rôle des idempotents dans la théorie des inverses généralisés Le candidat a traite des situations differentes ou il etablit des formules consernant le mp inverse .
- ItemExtension de quelques méthodes de points intérieurs pour un problème d'optimisation. Doctorat thesis,(2019) Université de Batna 2.(University of Batna 2, 10/29/2019) Bounibane, BachirDans cette thèse nous nous sommes intéressés à la résolution d’un programme linéaire. Nous avons appliqué une méthode de points intérieurs de type ″trajectoire centrale ̋ pour résoudre ce programme linéaire. En se basant sur les fonctions noyau. Nous avons proposé une nouvelle fonction noyau éligible, l’étude de cette fonction nous conduit à une meilleure complexité connue jusqu’à maintenant pour ce type d’algorithme à grand et petit pas.
- ItemIdentification et Classification des Espèces de Plante à Partir des Images d’Écorce(University of Batna 2, 10/7/2021) BOUDRA Safial’IDENTIFICATION des espèces végétales est une étape clé pour la préservation de la biodiversité. Cette identification est essentiellement réalisée par des experts botanistes. Ils déploient un savoir en taxonomie pour la description des caractéristiques visuels, comme la forme, la couleur et la structure des différents organes de la plante. L’espèce sous-jacente est généralement déterminée via un processus de recherche par similarité avec les espèces connues. Cependant, cette approche trouve ces limites dans le très grand nombre d’espèces existantes, et dans les problèmes de similarité inter-espèces et de variabilité intra-espèce, qui sont assez présents pour ces objets naturels. Ceci favorise le développement d’outils d’aide à l’identification automatique des espèces de plante. Cette solution est réalisable grâce à la croisée des domaines de la vision par ordinateur et la botanique. Cette thèse aborde le problème d’identification et classification automatique des espèces végétales à partir des images d’écorce. Le problème est formalisé comme un problème d’analyse de texture, et simule le processus de description et d’identification réalisé par les botanistes. Nous proposons de décrire la texture d’écorce via l’extraction et la représentation des macrostructures qui la caractérisent. À l’aide d’une représentation multi-échelles combinée à une représentation de la distribution d’intensité, et différents encodages des variations inter-échelles de la distribution, nous dérivons des codes macro-motifs statistiques binaires caractéristiques pour les différentes structures d’écorce. Les images d’écorce sont représentées par leurs descripteurs multi-échelles de macro-motifs binaires. Différents classifieurs supervisés sont utilisés pour l’identification et la classification de leurs espèces. De plus, nous procédons à la classification automatique des espèces d’écorce par des réseaux de neurones à convolution. En contraste à notre première proposition, avec un système classique de reconnaissance d’image, il s’agit ici d’une approche basée sur l’apprentissage profond des caractéristiques des écorces. Des évaluations réalisées sur quatre bases d’écorce montrent que notre approche permet d’identifier différentes espèces, dont les images présentent plusieurs problèmes photométriques ainsi que des problèmes de similarité inter-espèces. Nous avons aussi montré que notre approche est plus performante que les réseaux de neurones à convolution entièrement entraînés sur des petites bases d’écorce.
- ItemApproches évolutionnaires multi-biométriques pour l’identification des personnes.(University of Batna 2, 10/8/2019) BOUCETTA AldjiaCette thèse porte sur l’étude des approches évolutionnaires pour la biométrie. Précisément, l’objectif est de proposer des approches multi-biométrices efficaces pour l’authentification de personnes basées sur les signatures biométriques. Dans cette thèse, d’abord, nous proposons une nouvelle méthode de reconnaissance de la main qui combine les moments invariants d’Hu et les moments de Legendre, en tant que nouvel extracteur de caractéristiques. Puis, nous proposons l’utilisation de PSO comme technique évolutive permettant de combiner la modalité du visage, de l’iris et de palmprint au niveau du score. Dans ce système, nous utilisons trois algorithmes d’extraction de caractéristiques (transformation de Gabor, transformation DWT et transformation de Contourlet) pour extraire les principales caractéristiques biométriques. Ensuite, PCA, LDA et KFA sont utilisés pour la réduction de dimensionnalité des vecteurs de caractéristiques. Finalement, nous proposons un système biométrique multimodal efficace basé sur le Deep Learning. Pour cela, nous explorons deux approches basées sur CNN(Convolutional Neural Network) en utilisant un modèle préentraînement téléchargé de la littérature (squeezenet). Dans le premier approche, nous essayons de classer les objets en fonction de leurs caractéristiques distinctes et prenons donc une décision de classification finale basée sur les autres décisions. Nous pouvons utiliser un élément du modèle, tel que l’extracteur de caractéristiques, ou le fine-tuning en l’adaptant à notre tâche au lieu d’imagenet avec 1000 classes. Dans la deuxième approche, les vecteurs de caractéristiques sont extraits séparément, en utilisant squeezenet pour extraire les caractéristiques profondes des modalités, nous prenons les caractéristiques de la couche 66 et nous combinons ces vecteurs pour former un vecteur de caractéristiques composites. Ensuite fait une classification à l’aide de SVM.
- ItemCONTRIBUTION À LA CRYPTOGRAPHIE ET SÉCURITÉ QUANTIQUE(University of Batna 2, 11/16/2023) ADOUI SalahLa cryptographie a permis le développement des cryptosystémes dans des différents domaines. Toutefois, la sécurité demeure un enjeu non résolu. Dans cette thése, nous avons travailler a amélioré la sécurité de l’un des systèmes bien connus qui est le protocole d’échange de clés de Diffie et Hellman. Nous savons que les systèmes de cryptage sont divisés en deux types: symétrique et antisymétrique. Le premier utilise la même clé pour crypter et décrypter les donnés, mais le probléme posé est toujours sur la façon de transporter et échanger la clé commune de manière sécurisée et d’empêcher tout piratage de cette clé et ainsi assurer la confidentialité des informations échangées. En conséquence, nous avons exploité certaines des caractéristiques les plus importantes des matrices circulantes, à savoir que la multiplication de ce type de matrices est commutative, d’autre part il est facile de stocker ce type de matrices. Ensuite, grâce à un canal quantique, nous pouvons échanger des paramètres qui nous aident à créer une suite logistique, dont les caractéristiques les plus importantes ont une sensibilité élevée pour les conditions initiales, ce qui nous permet de créer une clé secrète et commune très sécurisée que nous allons l’utilisée pour chiffrer les images numériques.
- ItemMécanismes de sécurité pour l’intégration des RCSFs à l’IoT (Internet of Things)(University of Batna 2, 11/23/2016) SAHRAOUI SomiaL'Internet des objets (IoT) est un paradigme prometteur qui étale la connexion Internet de nos jours pour interconnecter différents types d'objets intelligents, autre que les ordinateurs et les téléphones mobiles, pour un mode de vie beaucoup plus sophistiqué et une qualité de service améliorée dans différents domaines d’application. Les réseaux de capteurs sans fil (RCSFs) comme une composante vitale de l'IoT, permettent la représentation des caractéristiques dynamiques du monde réel dans le monde virtuel de l'Internet. Ainsi, le standard IPv6 (Internet Protocol version 6) s’est étendu en une version compressée (6LoWPAN: IPv6 over Low power Wireless Personal Area Networks) pour l’IoT, permettant l’adressage d’une façon unique des milliers, voire des millions de noeuds capteurs connectés à Internet. Ces derniers sont considérés comme des hôtes IP réels et, leurs applications deviennent des services web. En effet, la maturité de l'Internet des objets dépend sans aucun doute de la sécurité des communications et la protection de la vie privée des utilisateurs. Toutefois, les hétérogénéités technologiques et matérielles, ainsi que la nature asymétrique des communications entre les noeuds capteurs et les hôtes classiques de l’Internet, font de la sécurité de l’IoT, un problème crucial. Dans ce contexte, de nombreuses solutions ont été proposées pour la standardisation de la sécurité des réseaux de capteurs connectés à Internet. Dans cette thèse, nous proposons deux solutions pour la protection des communications avec les noeuds capteurs intégrés à l’IoT. La première est une solution efficace d’établissement de sécurité de bout-en-bout basée sur le protocole HIP (Host Identity Protocol) qui semble être avantageux pour les applications de l’IoT. Cette solution est la première à combiner le premier modèle de compression 6LoWPAN des messages HIP avec un système sécurisé de distribution des primitives sécuritaires incluses dans le standard HIP. Quant à elle, la deuxième solution proposée présente un système asymétrique et sélectif pour la sécurité des interactions humain-à-objet dans l’IoT. La solution prend en considération les contraintes des RCSFs et les hétérogénéités entre les noeuds capteurs et les hôtes ordinaires, lors de la protection de bout-en-bout de tel genre de communications, avec une atténuation considérable de l’impact des attaques par déni de service (DoS) sur les RCSFs intégrés à l’IoT.
- ItemDétection Multicritères des Anomalies sur des Mammographies.(University of Batna 2, 11/23/2016) DJAROUDIB KhamsaLa vision par ordinateur est devenue un outil incontournable pour l’aide au diagnostic des experts médicaux. En particulier, les systèmes automatiques d’aide au diagnostic du cancer du sein (CAD) deviennent de plus en plus utilisés. L’étude menée sur les pathologies mammaires dans des images de mammographie, a montré que le diagnostic des masses mammaires et leur classification suscitent actuellement un grand intérêt. En effet, la complexité, la diversité des formes traitées et la difficulté rencontrée afin de les discerner nécessitent l’usage de descripteurs appropriés. Une revue des différentes méthodes de détection et/ou de segmentation des masses, nous a permis de distinguer tout d’abord entre les différents schémas des systèmes d’aide à la détection (CADe) et des systèmes d’aide au diagnostic (CADx) des anomalies. Pour nous orienter ensuite vers un premier modèle qui introduit le descripteur de texture extrait des matrices de cooccurrence de niveaux de gris (Grey Levels Cooccurrence Matrix, GLCM) dans une approche de détection par contours. Alors que le plus souvent, ces matrices sont utilisées seulement pour l’extraction des caractéristiques de texture dans les phases de segmentation ou de classification des masses. Le deuxième modèle proposé introduit les Modèles de Mixtures des Gaussiennes (GMM), l’Espérance- Maximisation (EM) et la méthode du Maximum de vraisemblance (ML) dans une approche de segmentation par régions des anomalies de cancer, c’est le modèle GMM/ML. L’algorithme consiste à initialiser les paramètres pour l’algorithme itératif EM par des statistiques sur le tissu suspect et des statistiques sur le tissu normal. Ce qui a permis d’ajuster au mieux les paramètres d’initialisation du modèle GMM classique. En plus de ces deux modèles proposés, et dans la continuité de ce travail, une contribution a été apportée aux problèmes d’amélioration des images de mammographie. Il s’agit d’extraire la région mammaire en coupant la région du muscle pectorale et la région bruitée du fond de l’image. L’extraction de ces deux dernières régions est une étape importante dans le processus global des systèmes d’aide au diagnostic CADx ou d’aide à la détection CADe. L’approche GLCM a été utilisée pour la détection des frontières du muscle pectorale et de la région mammaire et leur extraction. Les approches proposées sont à chaque fois testées et validées sur des images issues de mammographies de la base de données BIRADS MIAS. Et pour donner des résultats plus significatifs à cette étude, des tests ont été réalisés sur des images représentant différentes densités de tissu (Gras, Dense et Glandulaire). Enfin, une évaluation et une comparaison de ces approches avec des méthodes récentes de la littérature ont été réalisées.
- ItemSur les méthodes de projection et applications aux équations intégrales et intégro-différentielles. Doctorat thesis(2018), Université de Batna 2.(University of Batna 2, 11/28/2018) Ramdani, Nedjem-EddineL'objectif principal de cette thèse est d'étudier quelques classes des équations intégrales et intégro-différentielles avec des noyaux singuliers et réguliers. Pour résoudre les équations intégrales de Fredholm de la deuxième espèce, nous appliquons les méthodes de projections basées sur différents polynômes orthogonaux. Nous appliquons aussi des méthodes de collocations basées sur les polynômes Tchebychev pour résoudre numériquement des équations intégro-différentielles de second ordre. Nous introduisons une méthode des ondelettes pour résoudre une nouvelle classe d'équations intégrales de Fredholm du second type avec un noyau non symétrique.
- ItemHOMOGENEISATION ET CORRECTEURS DE QUELQUES PROBLEMES AUX LIMITES DEGENERES. Doctorat thesis (2019) Université de Batna 2.(University of Batna 2, 11/3/2019) CHENNOUF SELWADans cette thèse, on s'intéresse à l'homogénéisation d’un milieu multiphasique formé d’une phase ambiante connexe et de deux à plusieurs phases constituées de réseaux