Thèse de Doctorat
Permanent URI for this collection
Browse
Browsing Thèse de Doctorat by Issue Date
Now showing 1 - 20 of 70
Results Per Page
Sort Options
- ItemSécuriser les images numériques par une approche probabiliste(University of Batna 2, 1/14/2018) HAMZA RafikLa plupart des entreprises, coopèrent et communiquent via Internet, où une quantité importante d’informations est stockée, traitée et transmise selon un processus numérique. Cependant, ces données deviennent vulnérables à l’interception, la duplication, la falsification ou la corruption. Ainsi, la nécessité de sécuriser des images numériques devient primordiale. Le principal objectif de cette thèse est d’assurer la sécurité d’images numériques au moyen de techniques de cryptographie modernes notamment les approches probabilistes. À cet égard, la sécurité de l’image numérique peut être améliorée grâce à une technique aléatoire qui rend le cryptosystème sémantiquement sécurisé. L’objectif de cette thèse est élaborée est deux parties. La première partie se concentre sur la terminologie des images numérique. En outre, nous présentons certains mécanismes de sécurité qui pourraient garantir la confidentialité des images numériques et fournir un niveau élevé de sécurité dans diverses applications de communication. La deuxième partie se concentre sur nos contributions de recherches. Dans ce contexte, un générateur de nombres pseudo-aléatoire basé sur le système chaotique de Chen est proposé, il permet de produire une séquence de clés cryptographiques appropriées pour le chiffrement des images numériques. Nous avons aussi proposé un nouvel algorithme de cryptage d’images basé sur la carte chaotique de Zaslavsky. Ce dernier garantit d’une manière efficace la confidentialité des images numériques. En plus, nous avons proposé un cadre théorique basé sur l’algorithme de chiffrement précédemment proposé. La technique ainsi élaborée est basée sur la synthèse d’une vidéo endoscopique en utilisant des capsules sans fil. Elle garantit une transmission sécurisée et ceci en effectuant une extraction des frames les plus pertinents. Les cryptosystèmes ainsi proposés ont une bonne capacité de résister aux différents types d’attaques notamment les attaques choisies, connus et aux attaques différentielles. Une étude expérimentale a montré que les résultats trouvés sont excellents et dotés de performances de haut niveau comparés aux techniques classiques.
- ItemOPTIMISATION DES ACCÈS MÉMOIRE POUR LES ARCHITECTURES MULTI-COEURS.(University of Batna 2, 1/3/2021) BAROUDI ToufikWith the aim of increasing performance, the architecture of processors has evolved into multicore and manycore platforms composed of multiple processing units. However, the difficulty of programming these architectures often hinders taking full advantage of the potential of its processing units. This has motivated the compilation research community to develop alternative solutions, the goal of which is to free the programmer from the details of target architectures, while generating programs as efficient as possible. This is the area of research in parallelization and automatic code optimization. In almost all programs, loop nests account for most of the computing time. To optimize the execution of these code parties, the compilers apply transformations to them in order to improve the spatial and temporal locality of the memory accesses. The majority of these transformations are based on the polyhedral model which is a formalism allowing to represent iterations and references to arrays by points with integer coordinates of bounded polyhedra. Optimizing linear algebra programs has been one of the issues that has caught the attention of the code optimization research community for many years. In particular, operations on sparse matrices are part of the key calculation codes in many scientific and engineering applications. Consequently, several alternative storage formats have been proposed in order to store these matrices and to calculate only the non-zero elements. In this thesis, we first introduce a new approach to optimize matrix operations on particular sparse matrices using a dense data structure called the 2d-Packed format. The basic idea is that matrix operations using this new data structure can be automatically optimized and parallelized using source-to-source compilers based on the polyhedral model, such as Pluto. This work has improved the performance of a number of benchmarks in linear algebra. Second, we presented a study on the effect of allocation types, static and dynamic, on benchmark performance using the proposed data structure and certain linear algebra kernels of the PolyBench suite. Keywords : Multicore architecture, Optimization and parallelization of codes, Sparse matrices, Polyhedral model, 2d-Packed format.
- ItemEstimation d'illuminant pour l'analyse d'image(University of Batna 2, 10/24/2017) LAKEHAL ElkhamssaDans ce travail, nous nous intéressons au problème d'estimation de la couleur d'illuminant pour des -ns d'analyse d'image. Nous présentons deux algorithmes d'estimation d'illuminant global pour l'image et un algorithme pour le cas des illuminants multiples par image. Tous les algorithmes proposés sont basés sur les lois de physique. Nos algorithmes utilisent notre nouvelle hypothèse de dispersion maximale des projections de données image et l'analyse en composante principale. En e-et, l'hypothèse proposée est validée sur une grande collection d'images et utilisée par la suite pour l'estimation de la couleur de l'illuminant. Notre estimateur d'illuminants multiples suppose que la distribution spectrale de la source lumineuse n'est pas identique sur toute la scène, ce qui est le cas d'un nombre important d'images. Dans de tels cas, notre nouvel estimateur multi-illuminant récupère des estimations exactes pour chaque pixel de l'image en entrée tout en restant rapide. L'évaluation des algorithmes proposés sur diérentes collections d'images réelles a été réalisée. Les résultats expérimentaux sont satisfaisants ; nos algorithmes pré- sentent un compromis entre l'exactitude (erreur d'estimation d'illuminant) et la rapidité. Nous présentons aussi une nouvelle application pour la classi -cation des lumières nocturnes par leurs couleurs. À notre connaissance, nous sommes les premiers qui proposent d'estimer et de classier les couleurs des lumières dans les photos prises en nuit pour des -ns de prévention de la santé publique et les écosystèmes. L'application proposée estime les couleurs des lumières à partir de photos prises en nuit en utilisant une caméra commerciale. La classication des couleurs de lumières estimées avec l'algorithme k-means en trois classes blanche, bleue et rouge aide les chercheurs à faire des analyses approfondies avec les images de lumières nocturnes
- ItemFouille de Texte et Analyse pour Extraction/Découverte de la Connaissance du Saint Coran(University of Batna 2, 10/24/2017) BENTRCIA RahimaThere is an immense need to information systems that rely on Arabic Quranic text to present a precise and comprehensive knowledge about Quran to the world. This motivates us to conduct our research work which uses Quran as a corpus and exploits text mining techniques to perform three different tasks: extracting semantic relations that exist between words linked by AND conjunction, analyzing the order of the words of that conjunctive phrase, and finally measuring the similarity between Quran chapters based on lexical and statistical measures. Since semantic relations are a vital component in any ontology and many applications in Natural Language Processing strongly depend on them, this motivates the development of the first part in our thesis to extract semantic relations from the holy Quran, written in Arabic script, and enrich the automatic construction of Quran ontology. We focus on semantic relations resulting from proposed conjunctive patterns which include two words linked by the conjunctive AND. These words can be nouns, proper nouns, or adjectives. The strength of each relation is measured based on the correlation coefficient value between the two linked words. Finally, we measure the significance of this method through hypothesis testing and Student t-test. Moreover, some aspects of semantic relations that may exist between words are inspired from patterns of word co-occurrences. Hence, statistics performed on these patterns are very useful to provide further information about such relations. This fact induces conducting the second part in our research, which is an analytical study, on one type of these patterns called the AND conjunctive phrases, that exist in the holy Quran. First, we propose a set of AND conjunctive patterns in order to extract the conjunctive phrases from the Quranic Arabic Corpus which we convert to Arabic script. Then, we analyze the order of the two words that form the conjunctive phrase. We report three different cases: words that have occurred in a specific order in the conjunctive phrase and repeated only once in the Quran, words that have occurred in a specific order in the conjunctive phrase and repeated many times in the Quran, and words that have occurred in different positions in the conjunctive phrase and repeated one or many time(s) in the holy Quran. Finally, we show that different word orders in the conjunctive phrase yield different contextual meanings as well as different values of association relationship between the linked words. Similarity Measure between documents is a very important task in information retrieval. However, a crucial issue is the selection of an efficient similarity measure which improves time and performance of such systems.. In the last part of our thesis, we present a lexical approach to extracting similar words and phrases from Arabic texts, represented by Quran chapters (Surah). Furthermore, we measure the similarity value between these chapters using three different statistical metrics: cosine, Jaccard, and correlation distances.
- ItemIdentification et Classification des Espèces de Plante à Partir des Images d’Écorce(University of Batna 2, 10/7/2021) BOUDRA Safial’IDENTIFICATION des espèces végétales est une étape clé pour la préservation de la biodiversité. Cette identification est essentiellement réalisée par des experts botanistes. Ils déploient un savoir en taxonomie pour la description des caractéristiques visuels, comme la forme, la couleur et la structure des différents organes de la plante. L’espèce sous-jacente est généralement déterminée via un processus de recherche par similarité avec les espèces connues. Cependant, cette approche trouve ces limites dans le très grand nombre d’espèces existantes, et dans les problèmes de similarité inter-espèces et de variabilité intra-espèce, qui sont assez présents pour ces objets naturels. Ceci favorise le développement d’outils d’aide à l’identification automatique des espèces de plante. Cette solution est réalisable grâce à la croisée des domaines de la vision par ordinateur et la botanique. Cette thèse aborde le problème d’identification et classification automatique des espèces végétales à partir des images d’écorce. Le problème est formalisé comme un problème d’analyse de texture, et simule le processus de description et d’identification réalisé par les botanistes. Nous proposons de décrire la texture d’écorce via l’extraction et la représentation des macrostructures qui la caractérisent. À l’aide d’une représentation multi-échelles combinée à une représentation de la distribution d’intensité, et différents encodages des variations inter-échelles de la distribution, nous dérivons des codes macro-motifs statistiques binaires caractéristiques pour les différentes structures d’écorce. Les images d’écorce sont représentées par leurs descripteurs multi-échelles de macro-motifs binaires. Différents classifieurs supervisés sont utilisés pour l’identification et la classification de leurs espèces. De plus, nous procédons à la classification automatique des espèces d’écorce par des réseaux de neurones à convolution. En contraste à notre première proposition, avec un système classique de reconnaissance d’image, il s’agit ici d’une approche basée sur l’apprentissage profond des caractéristiques des écorces. Des évaluations réalisées sur quatre bases d’écorce montrent que notre approche permet d’identifier différentes espèces, dont les images présentent plusieurs problèmes photométriques ainsi que des problèmes de similarité inter-espèces. Nous avons aussi montré que notre approche est plus performante que les réseaux de neurones à convolution entièrement entraînés sur des petites bases d’écorce.
- ItemApproches évolutionnaires multi-biométriques pour l’identification des personnes.(University of Batna 2, 10/8/2019) BOUCETTA AldjiaCette thèse porte sur l’étude des approches évolutionnaires pour la biométrie. Précisément, l’objectif est de proposer des approches multi-biométrices efficaces pour l’authentification de personnes basées sur les signatures biométriques. Dans cette thèse, d’abord, nous proposons une nouvelle méthode de reconnaissance de la main qui combine les moments invariants d’Hu et les moments de Legendre, en tant que nouvel extracteur de caractéristiques. Puis, nous proposons l’utilisation de PSO comme technique évolutive permettant de combiner la modalité du visage, de l’iris et de palmprint au niveau du score. Dans ce système, nous utilisons trois algorithmes d’extraction de caractéristiques (transformation de Gabor, transformation DWT et transformation de Contourlet) pour extraire les principales caractéristiques biométriques. Ensuite, PCA, LDA et KFA sont utilisés pour la réduction de dimensionnalité des vecteurs de caractéristiques. Finalement, nous proposons un système biométrique multimodal efficace basé sur le Deep Learning. Pour cela, nous explorons deux approches basées sur CNN(Convolutional Neural Network) en utilisant un modèle préentraînement téléchargé de la littérature (squeezenet). Dans le premier approche, nous essayons de classer les objets en fonction de leurs caractéristiques distinctes et prenons donc une décision de classification finale basée sur les autres décisions. Nous pouvons utiliser un élément du modèle, tel que l’extracteur de caractéristiques, ou le fine-tuning en l’adaptant à notre tâche au lieu d’imagenet avec 1000 classes. Dans la deuxième approche, les vecteurs de caractéristiques sont extraits séparément, en utilisant squeezenet pour extraire les caractéristiques profondes des modalités, nous prenons les caractéristiques de la couche 66 et nous combinons ces vecteurs pour former un vecteur de caractéristiques composites. Ensuite fait une classification à l’aide de SVM.
- ItemDétection Multicritères des Anomalies sur des Mammographies.(University of Batna 2, 11/23/2016) DJAROUDIB KhamsaLa vision par ordinateur est devenue un outil incontournable pour l’aide au diagnostic des experts médicaux. En particulier, les systèmes automatiques d’aide au diagnostic du cancer du sein (CAD) deviennent de plus en plus utilisés. L’étude menée sur les pathologies mammaires dans des images de mammographie, a montré que le diagnostic des masses mammaires et leur classification suscitent actuellement un grand intérêt. En effet, la complexité, la diversité des formes traitées et la difficulté rencontrée afin de les discerner nécessitent l’usage de descripteurs appropriés. Une revue des différentes méthodes de détection et/ou de segmentation des masses, nous a permis de distinguer tout d’abord entre les différents schémas des systèmes d’aide à la détection (CADe) et des systèmes d’aide au diagnostic (CADx) des anomalies. Pour nous orienter ensuite vers un premier modèle qui introduit le descripteur de texture extrait des matrices de cooccurrence de niveaux de gris (Grey Levels Cooccurrence Matrix, GLCM) dans une approche de détection par contours. Alors que le plus souvent, ces matrices sont utilisées seulement pour l’extraction des caractéristiques de texture dans les phases de segmentation ou de classification des masses. Le deuxième modèle proposé introduit les Modèles de Mixtures des Gaussiennes (GMM), l’Espérance- Maximisation (EM) et la méthode du Maximum de vraisemblance (ML) dans une approche de segmentation par régions des anomalies de cancer, c’est le modèle GMM/ML. L’algorithme consiste à initialiser les paramètres pour l’algorithme itératif EM par des statistiques sur le tissu suspect et des statistiques sur le tissu normal. Ce qui a permis d’ajuster au mieux les paramètres d’initialisation du modèle GMM classique. En plus de ces deux modèles proposés, et dans la continuité de ce travail, une contribution a été apportée aux problèmes d’amélioration des images de mammographie. Il s’agit d’extraire la région mammaire en coupant la région du muscle pectorale et la région bruitée du fond de l’image. L’extraction de ces deux dernières régions est une étape importante dans le processus global des systèmes d’aide au diagnostic CADx ou d’aide à la détection CADe. L’approche GLCM a été utilisée pour la détection des frontières du muscle pectorale et de la région mammaire et leur extraction. Les approches proposées sont à chaque fois testées et validées sur des images issues de mammographies de la base de données BIRADS MIAS. Et pour donner des résultats plus significatifs à cette étude, des tests ont été réalisés sur des images représentant différentes densités de tissu (Gras, Dense et Glandulaire). Enfin, une évaluation et une comparaison de ces approches avec des méthodes récentes de la littérature ont été réalisées.
- ItemMécanismes de sécurité pour l’intégration des RCSFs à l’IoT (Internet of Things)(University of Batna 2, 11/23/2016) SAHRAOUI SomiaL'Internet des objets (IoT) est un paradigme prometteur qui étale la connexion Internet de nos jours pour interconnecter différents types d'objets intelligents, autre que les ordinateurs et les téléphones mobiles, pour un mode de vie beaucoup plus sophistiqué et une qualité de service améliorée dans différents domaines d’application. Les réseaux de capteurs sans fil (RCSFs) comme une composante vitale de l'IoT, permettent la représentation des caractéristiques dynamiques du monde réel dans le monde virtuel de l'Internet. Ainsi, le standard IPv6 (Internet Protocol version 6) s’est étendu en une version compressée (6LoWPAN: IPv6 over Low power Wireless Personal Area Networks) pour l’IoT, permettant l’adressage d’une façon unique des milliers, voire des millions de noeuds capteurs connectés à Internet. Ces derniers sont considérés comme des hôtes IP réels et, leurs applications deviennent des services web. En effet, la maturité de l'Internet des objets dépend sans aucun doute de la sécurité des communications et la protection de la vie privée des utilisateurs. Toutefois, les hétérogénéités technologiques et matérielles, ainsi que la nature asymétrique des communications entre les noeuds capteurs et les hôtes classiques de l’Internet, font de la sécurité de l’IoT, un problème crucial. Dans ce contexte, de nombreuses solutions ont été proposées pour la standardisation de la sécurité des réseaux de capteurs connectés à Internet. Dans cette thèse, nous proposons deux solutions pour la protection des communications avec les noeuds capteurs intégrés à l’IoT. La première est une solution efficace d’établissement de sécurité de bout-en-bout basée sur le protocole HIP (Host Identity Protocol) qui semble être avantageux pour les applications de l’IoT. Cette solution est la première à combiner le premier modèle de compression 6LoWPAN des messages HIP avec un système sécurisé de distribution des primitives sécuritaires incluses dans le standard HIP. Quant à elle, la deuxième solution proposée présente un système asymétrique et sélectif pour la sécurité des interactions humain-à-objet dans l’IoT. La solution prend en considération les contraintes des RCSFs et les hétérogénéités entre les noeuds capteurs et les hôtes ordinaires, lors de la protection de bout-en-bout de tel genre de communications, avec une atténuation considérable de l’impact des attaques par déni de service (DoS) sur les RCSFs intégrés à l’IoT.
- ItemCryptographie quantique, Nouvelles approches(University of Batna 2, 11/5/2017) DJELLAB RimaQuelque soit l’environnement dans lequel se déroule une communication, la sécurité reste un pilier nécessaire pour le bon déroulement de cette communication. Afin d’assurer un certain niveau de sécurité, la confidentialité est un élément essentiel à assurer. Ce sont les techniques de cryptographie qui l’assurent. La pierre angulaire des techniques cryptographiques est la gestion de clé. Plusieurs protocoles ont été proposés pour assurer une bonne gestion de clé dans un groupe, mais leur sécurité se base sur la complexité computationnelle. La distribution de clé quantique, par abus dite cryptographie quantique, est une primitive cryptographique basée sur les lois de la mécanique quantique, permettant d’établir une clé secrète commune entre les traditionnels correspondants Alice et Bob. Dans cette thèse, nous nous intéressons à la problématique de la distribution de clé dans groupe. Nous proposons pour cela une solution basée sur la distribution de clé quantique, ce qui permet d’exploiter cette même solution dans le contexte de groupe. Nous avançons par la suite la preuve formelle de la solution proposée en utilisant le vérificateur formel PRISM
- ItemUne approche coopérative basée sur l’IoT pour améliorer la qualité du trafic routier(University of Batna 2, 12/21/2023) Tarek Amine HADDADNowadays, automobiles have become very useful for the daily transportation of both people and goods. However, the increase in their numbers has generated a significant rise in demands for the use of road networks, which can lead to delays, traffic congestion, and poor traffic flow, especially in large cities and global metropolises. This type of problem often referred to as road congestion, can be caused by other factors such as road works, accidents, insufficient traffic management, etc. Many strategies to reduce traffic congestion have been adopted by governments and transport agencies. These strategies include building new roads, planning additional public transport routes, real- time traffic management, etc. On the other hand, traffic signal control (TSC) represents one of the modern trends that can play a crucial role in traffic management. It also refers to the management and coordination of traffic lights on road networks in order to effectively control traffic and improve traffic flow. This can involve adjusting the traffic light cycle time based on real traffic to optimize certain performance parameters. Modern TSC systems can adopt technologies such as traffic sensors, surveillance cameras and data processing algorithms to optimize traffic management. Reinforcement learning (RL) is an intelligent approach widely adopted by adaptive TSC systems to optimize traffic signal management, enhancing traffic flow. Indeed, it is possible to train a system to learn how to adjust traffic light cycle times based on the state of real traffic in order to reduce road congestion. In this thesis, we propose several cooperative approaches based on Deep Reinforcement Learning (DRL) to intelligently optimize the management of traffic lights in a road network with multiple intersections. We have thus modeled our problem as a multi-agent reinforcement learning system (MARL). This involves the use of multiple agents each of whom can learn to make decisions in terms of adjusting light cycle times to the local traffic situation, and these decisions can be synchronized with the decisions made by other agents to ensure optimal functioning of the entire system. In such approaches, each agent can receive from its neighbors their states, actions and rewards, combining them with its own state, action and reward to make the appropriate decisions. Experimental results under different scenarios show that the proposed approaches outperform many state-of-the-art approaches in terms of three parameters: Average Waiting Time (AWT), Average Queue Length (AQL) and average CO2 emission (AEC).
- ItemEnvironnement numérique de recherche d’information basé sur l’extraction d'information textuelle : Application aux vidéos de téléenseignement(University of Batna 2, 12/24/2018) BELKACEM SoundesA l’heure actuelle, les vidéos de présentations sont de plus en plus utilisées pour le télé-enseignement. Produites à termes quotidien, le nombre de vidéos disponibles en ligne ou archivées augmente explosivement. Le contenu de ces massives bases de données doit être facile à accéder et à rechercher dedans, ainsi, des systèmes automatiques d’indexation à base de contenu doivent être développés pour manipuler ce genre spécial de vidéos. Les performances de ces systèmes d’indexation à base de contenu sont fortement liées aux caractéristiques choisies pour décrire son contenu. Dans cette thèse, nous nous concentrons autour du choix, de la détection et de l’extraction des caractéristiques visuelles permettant à la fois une bonne description du contenu ainsi que l’expressivité vis-à-vis l’utilisateur humain. Nous présenterons de nouvelles contributions relatives à la structuration et la description visuelle du contenu des vidéos de présentations. Notre première contribution, se focalise sur l’organisation du contenu visuel des vidéos. Une méthode de segmentation récursive est mise au point pour identifier les différents segments des vidéos de présentation. La tâche est difficile à achever vue la nature longue et non structurée de ces vidéos, en plus de la nature des scènes homogènes et les différentes dégradations que présentent ce genre de vidéos. Pour une manipulation efficace, les trames sont échantillonnées et regroupées pour former des unités de traitement. Chaque segment subit deux types de traitement : l’extraction des caractéristiques, mesures de similarités et la vérification. Si une transition vers un autre segment est détectée, une procédure récursive de recherche de points de transitions est appliquée. Notre deuxième contribution, s’articule sur l’extraction des informations textuelles à partir des vidéos de présentations. Le choix est justifié par les avantages majeurs que présentent ces informations par rapport aux autres éléments visuels. La région de projection de la diapositive est localisée en premier. Après, l’extraction et la segmentation du texte suivie d’une étape de filtrage est appliquée. L’utilisation des MPZ (Moments Pseudo-Zernike) montre une robustesse contre les conditions d’acquisitions. Les méthodes proposées donnent de bons résultats vis-à-vis l’efficacité en termes de précision, avec un taux d’erreur minime, ainsi qu’en termes de temps de traitement. Ces méthodes ont présenté des résultats satisfaisants par rapport à des méthodes récentes.
- ItemRedondance logicielle pour la tolérance aux fautes des communications(University of Batna 2, 12/26/2016) ARAR ChafikLe travail présenté dans cette thèse, se place dans le cadre général de la conception des systèmes sûrs de fonctionnement. Plus particulièrement, il s’intéresse aux systèmes, embarqués et temps réels, et il traite essentiellement l’aspect de la communication dont le rôle conditionne largement la capacité d’un système à respecter la ponctualité et les exigences de la sûreté de fonctionnement. La proposition, la définition et la caractérisation d’algorithmes d’ordonnancement temps réel tolérants aux fautes adaptés aux architectures hétérogènes, sont les principaux objectifs de notre travail. Notre première proposition dite Approche d’ordonnancement fiable de communication basée sur la fragmentation variable des données, est adaptée aux architectures basées sur les communications par bus. La deuxième approche dite Approche d’ordonnancement fiable de communication basée sur la désallocation des données, cible les mêmes architectures, et utilise un mécanisme de chevauchement de données, pour assurer des communications optimales et sans fautes. Alors que la troisième proposition, dite Approche d’ordonnancement fiable de communication temps réel basée sur les chemins de sauvegarde fragmentés, est destinée pour les architectures à base de réseaux de communications multi sauts. Dans ce travail, on a essayé de contourner la difficulté de proposer des algorithmes d’ordonnancement tolérants aux fautes des processeurs et des communications temps réel ; offrant à la fois une optimalité théorique du point de vue de l’utilisation des ressources de calcul et de communication, mais également une efficacité pratique traduite par une sûreté de fonctionnement maximisée.
- ItemAnalyse, conception et implémentation d’un environnement pour le support de l’apprentissage collaboratif du diagnostic médical(University of Batna 2, 12/28/2017) FERRADJI Mohamed AbderraoufEn dépit de l’important progrès en termes d’utilisation des Technologies de l’Information et de la Communication (TIC) dans l’éducation médicale, l’Apprentissage du Raisonnement Clinique (ARC) reste néanmoins loin des aspirations des enseignants et apprenants en médecine. En outre, tandis que l’ARC est essentiellement une tâche collaborative qui implique la participation d’un groupe d’apprenants avec un tuteur qui analysent simultanément le même cas médical, il doit être considéré d’une perspective sociale. Nous nous appuyons alors sur les notions fondamentales du Travail Collaboratif Assisté par Ordinateur (TCAO - en anglais CSCW : Computer Supported Collaborative Work) afin de proposer de nouvelles solutions permettant de supporter la collaboration dans le contexte de l’apprentissage du diagnostic médical. Par conséquent, nous y développons un environnement permettant l’acquisition sociale des connaissances cliniques. Notre cadre d’étude s’inscrit dans un contexte incluant essentiellement deux axes de recherches totalement hétérogènes. Le premier axe traite le processus du diagnostic médical qui s’appuie particulièrement sur les études cognitives effectuées dans le domaine de l’éducation médicale. Alors que le domaine du TCAO, permet d'analyser le processus de coopération/collaboration dans les situations de travail réelles, afin de concevoir les outils de support appropriés. Dans cette perspective, cette thèse présente les principes de base d’analyse, de modélisation et d’implémentation d’un environnement informatique supportant la collaboration dans le contexte de l’apprentissage du diagnostic médical. Cet environnement est caractérisé essentiellement par l’intégration de mécanismes importants au support de la coopération/collaboration, la coordination et l'interaction de groupe lors du processus d’Apprentissage Collaboratif du Raisonnement Clinique (ACRC). Il permet en conséquence à plusieurs apprenants avec leur tuteur, géographiquement distribués, de travailler simultanément et de façon coordonnée sur un même cas clinique afin d’avoir le diagnostic médical le plus approprié. Par ailleurs, le développement de l’environnement est fondé principalement sur une étude approfondie, du processus d’ARC, que nous avons effectué, pour comprendre les méthodes habituelles sous lesquelles les étudiants apprennent ensemble. Cette étude menée, dans le milieu clinique, à travers une enquête basée sur des observations et des interviews avec des étudiants et enseignants en gynécologie et obstétrique.
- ItemSelf-stabilization in dynamic distributed systems. Doctorat thesis(University of Batna 2, 12/7/2022) Saadi LeilaDynamic distributed systems are used widely in everyday life by dealing with exploitation and treatment on information, documents, services, medias, and all entertainment means. Many companies creating software and systems compete to offer users powerful and tolerant services. This dynamic DS are obliged to response the user demands in time and with trustworthy information, they offer all levels of security; authenticity of all services and personnel information. This kind of systems appears in our life in all areas using different means of sensors that collect all type of information and requests where the challenge is to ensure a permanent service availability since failures occurs. Many algorithms are used here to fault tolerant and exceed those situations, among the self-stabilizing algorithms that take the system to a legitimate state even the presence of failures and errors. This thesis deals with the problem of finding dominating set using self-stabilizing paradigm in dynamic distributed systems. Usually, members of a dominating set are selected to be as cluster heads in Wireless Sensor Networks (WSN) in order to ensure a permanent service availability. Since failures occurs frequently inside WSNdue to limited battery energy, selfstabilizing algorithm allows recomputing the dominating set, and hence the network returns to its ordinary running. Existing works have introduced many variants of self-stabilizing algorithms that compute minimal dominating set S where each node out of S has neighbours in S more than it has out S. In this thesis, we introduce a generalized self-stabilizing algorithm called minimal (α, β)-dominating set. An α-dominating set is a subset of nodes S such that for any node υ out of S, the rate of neighbours of υ inside S must be greater than α, where 0 < α ≤ 1. In the same way, an (α, β)-dominating set is a subset of nodes S such that: S is α-dominating set and for each node υ in S, the rate of neighbours of υ inside S is greater than β, where 0 ≤ β ≤ 1. Mathematical proofs and simulation tests showthe correctness and the efficiency of the proposed algorithm. Through our proposed variant (α, β)-domination, we prove rigorously the conjecture of Carrier et. al. (Self-stabilizing (f, g)-alliances with safe convergence) who have proposed a self-stabilizing algorithm for a domination variant called (f, g)-alliance set only when f ≥ g. We prove the correctness of the case f < g.
- ItemApproches de classification des images à grande échelle sur des architectures massivement parallèles(University of Batna 2, 2/22/2021) MEZZOUDJ SalihaActuellement, l’énorme volume de données structurées et non structurées provenant de sources diverses, produites en temps réel et dépassent la capacité de stockage d‘une seule machine. En effet, ces données sont difficilement traitées avec les systèmes de recherche d‘information classique. Ce challenge nous a motivés pour élaborer un nouveau système de recherche et de classification des images permettant le stockage, la gestion et le traitement des grandes quantités d’images (Big Data) et qui imposent une parallélisation des calculs pour obtenir des résultats en temps raisonnable et avec une précision optimale. Cette thèse est organisée en deux parties. La première partie représente un état de l‘art sur le domaine de la vision par ordinateur et ces concepts de base, les technologies de Big Data spécialement les plateformes de stockage et de calcul, elles présentent aussi l’infrastructure distribuée nécessaire pour rendre ces plateformes faciles à utiliser. Dans la deuxième partie un nouveau système de recherche d’images par le contenu rapide basé sur la plateforme Spark (CBIR-S) est présenté comme une première proposition tout en ciblant les bases d’images à grande échelle (Big Data). Dans ce système nous utilisons lemodèle distribuéMapReduce sous la plateforme Spark pour traiter de grands volumes de données en parallèle en divisant le travail en un ensemble de tâches indépendantes, et afin d’accélérer le processus d’indexation nous avons utilisé également un système de stockage distribué, qui s’appelle Tachyon; et afin d’accélérer le processus de recherche nous utilisons l’algorithme parallèle de K-plus proches voisins (k-NN) de classification basée sur le modèle MapReduce implémenté sous Apache Spark.De plus, nous exploitons la méthode de cache de spark. Notre approche proposée permet d’accélérer les temps d’indexation, et de classification, tout en gardant les précisions des méthodes. Les tests effectués sur une base d’images ImageCLEFphoto 2008 montrent les avantages de système proposé. Comme une deuxième proposition, nous introduisons une nouvelle méthode de classification des races dans des base d’images faces à grande échelle basée sur la méthode Local Binary Pattern (LBP) et la méthode de régression logistique (LR) sous la plateforme Spark pour traiter d’une manière parallèle une grande échelle des faces. L’évaluation de notre méthode proposée a été effectuée sur la combinaison de deux grandes bases d’images de visage CAS-PEAL (partie de pose) et Color FERET. Deux races ont été considérées pour ce travail, y compris les races asiatiques et non asiatiques. Par comparaison, notre méthode avec les classificateurs SVM linéaires, bayésiens naïfs (NB), forêts aléatoires (RF) et arbres de décision (DT) de Spark, nous avons obtenu une précision moyenne de 99,99%, les résultats montrent que notreméthode est très compétitive. Mots clés : Big Data; système de recherche d’images; classification; les technologies de Big Data; k-NN parallèle ; spark, Tachon; cache; classification des races; LR; NB; RF; DT.
- ItemAnalyse cryptographique par les méthodes heuristiques(University of Batna 2, 2/28/2017) MEKHAZNIA TaharLa cryptanalyse est l’art de l’étude des chiffrements et leurs concepts annexes, de les casser sans connaissance au préalable des algorithmes de chiffrements et des clés utilisées. Son principe réside dans l’utilisation d’outils mathématiques adéquats pour la réussite des attaques. La force brute étant l’attaque la plus sure; elle tente toutes les possibilités sans restriction mais, nécessite en contrepartie d’avantages de ressources et donc, moins de succès en pratique. D’autres alternatives moins gourmandes sont disponibles en littérature : la cryptanalyse linéaire et différentielle, capables de briser une variété de chiffrements. Néanmoins et, compte tenu de leur conception spécifique, paraissent inefficaces à l’égard des cryptosystèmes modernes. Ce problème est classé comme NP-Difficile, a été longuement cible de diverses attaques; les résultats, apparus depuis quelque temps demeurent jusqu’à lors restreints, spécialement lors de la manipulation de larges instances où la consommation de ressources accroît avec la taille du problème. D’un autre côté, les metaheuristiques regroupent un ensemble de méthodes et techniques destinés à explorer des espaces hétérogènes en vue de résoudre des problèmes d’optimisation difficiles. Ceci est dû essentiellement à leur capacité de converger rapidement avec un usage modérée de temps de calcul. Faisant partie des metaheuristiques, les algorithmes évolutionnaires sont dotés d’un potentiel efficace pour le traitement des grandes instances et paraissent aptes à produire des solutions approximatives pour une large variété de problèmes d’optimisation avec une consommation acceptable de ressources. De ce fait, le travail présenté se focalise sur l’analyse des caractéristiques des chiffrements et améliore les outils de cryptanalyse dans le but de favoriser les attaques en optimisant les ressources. Cette analyse englobe la manière de recherche de clés par analyse des statistiques de fréquences de caractères, stratégies de paramétrage de l’environnement et diversification des données de tests; l’outil applicatif utilisé est un ensemble d’algorithmes heuristiques basés sur la recherche locale, le branchement et certaines metaheuristiques à population. Le résultat renvoi une synthèse quant à la classification de ces algorithmes selon leur efficacité à résoudre de tels types de problèmes. La modélisation intègre diverses propriétés liées aux chiffrements, notamment les outils de reconnaissance des langages de chiffrements, le type des chiffrements et les propriétés des clés utilisées. Le code d’expérimentation élaboré permet de gérer un nombre consistant de paramètres: clés, textes de chiffrements, tables statistiques de fréquence de caractères, ainsi que les paramètres liés à l’environnement: taille de données, temps exécution, valeurs de paramètres de diverses metaheuristiques utilisées. L’ensemble de ces tâches a été intégré au sein d’un outil de recherche de clés automatisé permettant de gérer les diverses situations et de contourner l’intervention humaine durant tout le cycle de traitement. Ce concept de synthèse, absent dans la majorité des travaux similaires en littérature, permet en grande partie d’améliorer les conditions d’expérimentations et favoriser la convergence de la solution. Enfin, le travail est couronné par une synthèse de comparaison de performances entre diverses techniques de recherche utilisées aidant ainsi les cryptanalystes à mieux choisir leurs stratégies d’attaques en regard de chaque type de chiffrement ciblé.
- ItemUn modèle de confiance pour la sécurité des communications dans les réseaux mobiles Ad hoc(University of Batna 2, 2/6/2019) Beghriche AbdesselemLe sujet de cette thèse se focalise sur le problème de l’évaluation et de la gestion de la confiance dans les réseaux mobiles Ad hoc (MANET: Mobile Ad hoc NETwork), où les noeuds accumulent le rôle de routeur, de serveur et de client, les obligeant à coopérer pour un bon fonctionnement du réseau. L’absence d’une gestion centrale des fonctionnalités du réseau rend ces réseaux beaucoup plus vulnérables aux attaques que les réseaux sans fil (WLAN) et filaires (LAN). Plusieurs nouveaux protocoles de sécurité ont été proposés, parce que les solutions conventionnelles ne sont pas adaptées pour de tels réseaux (environnement dynamique). Ils ne prennent pas la contrainte des ressources en considération car non seulement l’environnement est dynamique, mais les ressources sont aussi limitées (la mémoire, la capacité de calcul et surtout l’énergie), ce qui complique davantage la problématique, car on sait bien que les solutions de sécurité sont gourmandes en termes de ressources. La plupart des protocoles et des applications pour réseaux Ad hoc considèrent l’existence d’une parfaite coopération entre tous les noeuds du réseau. Il est supposé que tous les noeuds se comportent selon les spécifications des applications et des protocoles précédemment déterminés pour le réseau. Néanmoins, cette condition peut être fausse, à cause de contraintes de ressources ou de comportements malveillants. Par la suite, les noeuds peuvent ne pas se comporter comme prévu entrainant un mauvais fonctionnement du réseau. Prétendre que ces noeuds se comportent correctement peut entrainer des problèmes, tels qu’une faible efficacité du réseau, une consommation élevée de ressources et une vulnérabilité importante aux attaques. Par conséquent, un mécanisme permettant à un noeud d’avoir confiance en d’autres noeuds est nécessaire. L’objectif principal de la thèse consiste à définir et proposer un nouveau modèle de gestion de la confiance, où les noeuds d’un réseau Ad-hoc établissent un rapport de confiance basé sur des expériences et des recommandations préalables. Le but est de rendre les noeuds du réseau capables de recueillir des informations pour raisonner apprendre et prendre leur propre décision. La solution envisagée est de faire reposer la prise de décision d’un échange sur la base de la confiance, sachant que chaque noeud ne pourra se protéger d’éventuels voisins malicieux qu’en faisant appel aux informations locales dont il dispose. Notre modèle de gestion de la confiance a donc pour objectif d’intégrer des mécanismes contrant les attaques qui pourraient exister, en forçant la coopération entre les noeuds, et détectant les comportements défaillants. Le modèle proposé repose sur la combinaison de deux mécanismes principaux, dont le premier est basé sur la théorie des ensembles flous, et le deuxième applique la méthode d’analyse relationnelle grise "G. R. A" (Grey Relational Analysis) afin de calculer un niveau de confiance pour chaque noeud dans le réseau. Ces niveaux de confiance sont ensuite utilisés dans le processus de prise de décision de routage. La performance de ces mécanismes est évaluée avec la prise en compte de plusieurs aspects primordiaux pour les réseaux mobiles Ad hoc, telles que la qualité d'interaction du réseau, l’efficacité du modèle de confiance, l'atténuation de noeuds malveillants et les améliorations de la sécurité du système.
- ItemUn environnement d'exécution de simulation basé sur le calcul volontaire(University of Batna 2, 2020) KADACHE NABILLe calcul volontaire (CV) est devenu une technique relativement mature de calcul distribué. Son principe consisté a exploiter le temps de repos des machines ordinaires connectées a internet et avec le consentement de leurs propriétaires. Les applications cibles sont généralement des projets scientiques nécessitant un temps et des ressources énormes de calcul. Les plateformes de calcul volontaire existantes soulévent plusieurs dés concernant les diérentes fonctions qui doivent ^etre assurées. Dans une premére partie de notre travail, nous essayons d'apporter des solutions a deux dés inhérents au CV ; Le premier concerne l'implication de volontaires, qui constitue le maillon faible de ce type de systémes. Nous proposons un nouvel environnement de calcul volontaire social (SVCE) intégrant les fonctionnalités récentes de Facebook afin d'impliquer davantage de volontaires. Le deuxiéme probléme, que nous avons abordé, est celui de l'ordonnancement des t^aches dans les systémes de CV. Pour cela, nous proposons un algorithme qui consistéa générer, pour chaque volontaire, un nombre de taches élémentaires dont le cout d'exécutionre éte la capacité de calcul momentanée des ressources disponibles des volontaires, la validité de notre algorithme est illustrée expérimentalement. Dans la deuxiéme partie de notre thése, nous nous penchons sur la simulation distribuée, nous proposons à cet éet un environnement de simulation (VolSIM) qui combine les techniques liées au calcul volontaire àn d'exécuter des simulations qui requiérent des ressources conséquentes.
- ItemApproche Multimodale basée sur l’Apprentissage Profond pour l’Identification Biométrique(University of Batna 2, 2023) ABDESSALAM HATTABDue to the growing need for user identification in various modern applications, experts highly recommend incorporating biometric technology in the application development field. Recently, many recognition systems using face and iris traits obtained remarkable performance, particularly since these biometric traits are captured from a distance without physical contact with sensors. This feature reduces the potential spread of the COVID-19 pandemic and other diseases by touch and makes biometrics more convenient and user-friendly. However, the recognition systems’ performance is significantly reduced when these traits are captured under uncontrolled conditions, including occlusion, poses and illumination variation. Because the handcrafted approach used by some recognition systems extracts local features from the global image, where the image’s regions affected by the uncontrolled conditions often influence the quality of extracted features. This thesis proposed a robust face recognition system that extracts features from important facial regions, using Scale-invariant feature transform (SIFT) to identify significant facial regions and adaptive Local Ternary Pattern (ALTP) to extract features. The proposed system achieved promising results on two benchmark face datasets captured under unconstrained conditions, achieving 99.75% on the ORL dataset and 95.12% on the FERET dataset. In addition, a new face recognition system based on Deep Learning has been proposed using the pre-trained AlexNet-v2 model. The proposed system achieved excellent results on the ORL and FERET face datasets, reaching 100% on the first and 99.89% on the second. Moreover, we proposed a novel face recognition system to address the issue of illumination variation. The system used a novel model inspired by the pre-trained VGG16 model. The proposed system achieved state-of-the-art results, reaching 99.32% on the Extended Yale B dataset and 99.79% on the AR dataset. Another contribution of this work is developing a novel iris recognition system based on Transfer Learning to achieve high accuracy rates. The proposed system used the Yolov4-tiny model to localize the iris region, while a novel Deep Convolutional Neural Network (CNN) model inspired by the pre-trained Inception-v3 model was used for features extraction. The performance of this system was evaluated on four different iris databases captured under non-cooperative conditions, where it achieved a new state-of-the-art accuracy rate reaching 99.91%, 99.60%, 99.91%, and 99.19% on the IITD, CASIA-Iris-v1, CASIA-Iris-Interval, and CASIA-Iris-Thousand, respectively. The proposed unimodal systems achieved high accuracy compared to state-of-the-art methods. However, relying solely on a unimodal biometric trait is inadequate for high-security requirements in military and government applications. Finally, three face-iris multimodal biometric systems have been proposed in this thesis. The first employs the fusion of images, the second utilizes feature-level fusion, and the third is based on score-level fusion. The proposed systems used Yolov4-tiny to detect the face and both iris regions. In addition, they applied a new deep CNN model inspired by the pre-trained Xception model to extract features. To evaluate the performance of the proposed systems, a twofold cross-validation protocol is employed on the CASIA-ORL and SDUMLA-HTM multimodal benchmark databases. The results showed that our systems achieved a perfect score of 100% on both databases. Remarkably, the system utilizing score-level fusion outperformed the other systems, achieving outstanding results of 100% on the CASIA-ORL database and over 99% on the SDUMLA-HTM database, with only one sample used for training.
- ItemApproche d’apprentissage pour l’analyse des Big Data(University of Batna 2, 2023) Benoughidene AbdelhalimThe development of information technology has led to the big data revolution, with the amount of data produced increasing at a high rate. Video data is a significant component of big data, and the concept of automatically analyzing this rapidly increasing video content has become a popular research topic. In such a scenario, video automatic analysis uses a new generation of information technologies, such as artificial intelligence (machine learning), which help transform traditional video analysis to be more efficient and convenient. Video summary (VS) is now one of the primary areas of study in video analysis. Despite the use of big data-driven models, producing accurate video summaries in an efficient and effective manner remains a challenging task. The most effective and efficient way to transform lengthy, unstructured videos into structured, condensed, understandable, and useful information is through the use of video summaries. The primary goal of summarizing a video is to break it down into shots and select key frames from each shot that best capture the essence and flow of the entire video. The goal of this thesis is to improve the performance of video summarization systems by enhancing the quality of analytical techniques. To achieve this goal, we proposed two contributions. First, we suggested a shot boundary detection (SBD) method to adapt key shots and exploit its potential in video summaries. This is the first step in the video summarization process, and the results have a significant impact on the quality of the final summary. The main idea behind SBD is to extract features from video frames and then identify the boundaries between shots based on the differences in the features. Second, we focused on improving video summaries using unsupervised machine learning techniques (DBSCAN) and genetic algorithms (GA) to optimize DBSCAN hyperparameters. We validated the proposed methods and results obtained through extensive comparative analysis using datasets.