Le contrôle de l'évolution des logiciels exige une compréhension profonde des changements et leur impact sur les différents composants du système. Notre travail consiste à élaborer une modélisation des composants logiciels et de leur différents liens d'interdépendance pour construire un système à base de connaissances permettant, entre autres, d'assister les développeurs et les chargés de l'évolution des logiciels pour établir une évaluation a priori de l'impact des modifications. La modélisation que nous élaborons intègre trois descriptions majeures des logiciels : (1) la description architecturale (2) la description structurelle (3) la description qualitative. Trois modèles, d'abord élaborés individuellement pour les trois descriptions respectives, ont été intégrés ou mis en correspondance dans l'objectif d'étudier l'impact de toute modification et sa potentielle propagation à travers les constituants logiciels concernés. Lors de chaque modification, il devient alors possible d'établir un bilan qualitatif de son impact. La modélisation intégrée est élaborée pour se prêter à un raisonnement à base de règles expertes.
De nos jours, la présence des systèmes informatiques temps réel embarqués dans notre quotidien ne cesse de s'accroître. Ces systèmes sont présents dans notre vie, et ça va des systèmes les plus simples aux plus compliqués. (automobile, ferroviaire, l'aérien, le spatial, le militaire, la robotique, la télécommunication, etc.). Cependant, ils existent parmi ces secteurs d'activités, des secteurs stricts, où le fonctionnement est conditionné par des contraintes temporelles. Alors, pour un système temps réel un résultat juste, mais qui ne respecte pas ses contraintes temporelles ne sert à rien. Ces systèmes sont souvent constitués de tâches périodiques strictes et de tâches apériodiques non critiques. Ils existent de nombreux algorithmes d'ordonnancement qui garantissent aux tâches périodiques strictes le respect de leurs échéances mais qui ne fournissent pas aux tâches apériodiques un temps de réponse acceptable. Notre objectif dans ce mémoire, est de concevoir des algorithmes d'ordonnancement temps réel qui non seulement garantissent le respect des échéances des tâches périodiques mais aussi fournissent un bon temps de réponse pour les tâches apériodiques dans les systèmes embarqués.
Depuis de nombreuses années, on assiste à un besoin croissant en images numériques (fixes ou animées), dans de multiples domaines : télécommunication, diffusion multimédia, diagnostic médical, télésurveillance, météorologie, robotique, etc. Or ce type de données représente une masse énorme d'informations difficile à transmettre et à stocker avec les moyens actuels. D'où la nécessité des techniques dites de "compression d'images". Différentes méthodes, sans perte d'informations telles que Shannon-Fano, Huffman, etc. ou avec perte d'informations non perçue à l'oeil nu telle que la transformée en cosinus discrète (TCD), le standard JPEG, les ondelettes, ont été présentées. Dans ce travail, Nous avons apporté notre contribution à l'utilisation de l'analyse en ondelettes avec les réseaux de neurones artificiels. Pour apprécier numériquement les résultats et évaluer l'efficacité de la démarche proposée, nous avons élaboré quelques mesures des performances et nous avons dégagé des courbes d'évaluation en fonction de plusieurs critères desquels notre approche dépend, comme par exemple: le type de la famille d'ondelettes, le niveau d'analyse, etc.
CONCEVOIR UN DISPOSITIF DE FORMATION A DISTANCE (FOAD) VIA INTERNET Nous traversons actuellement l'ère de la "révolution numérique" dans l'apprentissage en ligne et l'utilisation de l'internet, ce qui a donné un essor sans précédent à la formation à distance, faisant de celle-ci une nouvelle approche pédagogique, un nouveau mode à la fois virtuel que tangible d'acquisition de connaissance et de formation. La pédagogie, elle-même s'en trouve bouleversée par ce mode d'opération qui prend de plus en plus d'ampleur depuis l'école primaire jusqu'à l'université. La FOAD connait aujourd'hui une croissance de plus en plus importante. J'espère que le lecteur pourra tirer grand profit de ce livre en se mettant à cette formation afin de mieux réussir tout projet de vie, de formation ou de promotion sociale à travers ce mode d'apprentissage peu coûteux et qui fait gagner du temps, d'autant que l'on peut apprendre à son rythme sans quitter chez soi, même en mobilité réduite. Il suffit de disposer d'un équipement adéquat prévu à cet effet. L'auteur
Les méthodes d'intégration numérique, qui fournissent facilement une solution, présentent l'inconvénient dans certains cas de donner une qualité médiocre : la différence entre la valeur exacte et son approximation (par une formule d'intégration) peut être grande. Dans ce travail nous avons montré, qu'il est possible de remédier à cela, en utilisant l'optimisation par Essaim de particules; en transformant le problème d'intégration en un problème d'optimisation. A titre d'application, on a calculé les points d'intégration avec PSO, à la place des points utilisés par les méthodes de Riemann pour améliorer qualitativement les solutions.
Cet ouvrage étudie la chaîne logistique de l'imprimerie . Une double démarche a été adoptée : - Une démarche classique qui consiste à considérer qu'il s'agit d'une unité économique qui génère sa plus-value à travers la mise en oeuvre des ressources Humaines Matérielles Techniques et Logiques pour fabriquer des produits. - Une démarche Logistique qui consiste à considérer l'imprimerie comme une chaîne logistique. A ce titre Il faut adopter un découpage classique de la Supply Chain et Faire le tour de tous les organes et les postes
Le séchage du bois est un processus très complexe au cours duquel on doit tenir compte de plusieurs paramètres thermiques et physiques qui influent sur le comportement mécanique du bois au cours du séchage et la consommation énergétique de l'opération. Au sein de premier chapitre, on a parlé des caractéristiques et propriétés physiques du bois,des caractéristiques et propriétés physiques du l'air humide, et des différents types des séchoirs existants. Le deuxième chapitre a été une occasion pour étudier les différentes technologies de séchoirs solaires pour le bois et les différents moyens d'obtenir le séchage.En outre,on a mis un point sur les principales unités et les différentes composantes constituant le séchoir solaire du bois. Enfin, dans le dernier chapitre, on a présenté le logiciel TRNSYS et on a utilisé comme données les résultats de code de séchage développé en utilisant le langage Fortran90 pour simuler le comportement d'un séchoir solaire par déshumidification avec la technologie de renouvellement d'air dans le cas d'une humidité et d'une température d'entrées constantes.
Répondant à la demande de photographes professionnels ayant une longue pratique argentique noir et blanc et désirant retrouver le grain argentique sur leurs impressions jet d'encre, cette recherche a pour objet de proposer un processus d'analyse numérique du grain d'un tirage baryté du film Kodak Tri-X 400 de format 135 et de restitution de ce grain sur une impression jet d'encre pigmentaire. Ce grain est caractérisé à différents niveaux d'exposition (ISO640, IE800 et IE1600) couplés à différents révélateurs films (Kodak D76, Kodak Xtol, BKA Acufine). La technique de restitution du grain employée est soumise à l'aval d'un test psychophysique d'analyse comparative visuelle entre des images similaires sur tirages barytés et sur impressions jet d'encre.
L'objectif de ce travail est de réaliser une carte d'interfaçage à base d'un PIC16F877 et développer les parties logicielles nécessaires, pour la communication entre le PC et un réseau hydrographique. Ce sujet est donc constitué de deux parties : la première partie consiste à concevoir et réaliser une carte d'acquisition et de commande. Quant la deuxième s'intéresse à la programmation du PIC par le langage C et le développement d'un driver autour de l'environnement MATLAB.
Au cours de ce projet, nous avons pu faire la conception d'un moule à 4 empreintes d'une Brosse à linge. D'abord, nous avons essayé de présenter le cahier des charges fourni par l'entreprise. Puis, nous avons effectué une étude bibliographique en s'appuyant sur le procédé et la matière. En fait, une étude et un dimensionnement des différentes fonctions du moule ont été réalisés pour pouvoir choisir les éléments constituants du moule. Ensuite, nous avons réalisé une étude rhéologique sur le logiciel commercial « Moldflow ». Cette dernière étude nous a permis de valider les dimensions du système d'alimentation et de refroidissement et de déterminer les paramètres d'injection optimale. Enfin, nous avons accompli notre projet par une Fabrication assistée par ordinateur qui permet de réaliser tous les plaques de moule.
Ce projet réaliser par M. Zidi Jed EL Hak et M.Ben Zayed Jamel au sein de l'école supérieure de technologie et d'informatique(ESTI) à Tunis, contient la conception et le développement d'une application qui permet de détecter n'importe quel type de motif gravé ou dessiné .Il s'agit d'une application basé sur les modules visuels du logiciel nommé LABVIEW. Ainsi cette application est réalisée à base de la programmation graphique (G), dont vous trouvez un prototype qui vous permet de bénéficier du module visuel d'un logiciel qui contient une bibliothèque riche en fonction et aussi facile à utiliser.
La croissance cristalline est un phénomène de non équilibre. Elle a joué un grand rôle dans les technologies avancées et a permis la fabrication de cristaux de bonne qualité. L'étude de la croissance cristalline comprend trois parties : la cinétique, les modes et la morphologie. Dans ce travail, nous avons étudié la cinétique de croissance de la surface (001) du cubique centré dans l'approximation RSOS. Cette surface a été décrite à l'aide du modèle 6-vertex. La croissance est régie par une équation maîtresse qui fait intervenir une matrice de transition.Cette équation est résolue par calcul exact sur de petite taille du réseau. Les grandes tailles ont été analysées par simulation numérique Monte Carlo cinétique avec l'algorithme de BKL. Dans ces simulations les dynamiques de Glauber sont utilisées.Nous avons fait l'application au cas pratique de la surface du cuivre (001). Nous avons observé des changements de morphologies de la surface en fonction de la température et avons établi des relations non triviales du taux de croissance. Notre travail entre dans le cadre de la physique de la croissance cristalline, domaine où la science a réalisé des progrès ces dernières décennies.
The book serves as a rigorous introduction to the basic principles and practice of the building 3D model creation process. It presents five photogrammetric methods utilised for 3D modelling of urban area, as follows: close range photogrammetry, by using digital non-metric images taken with a Canon EOS Rebel XSi/450D digital camera, UAV photogrammetry by using digital non-metric images acquired with a low-cost UAV platform, namelly DJI Phantom 3 Standard, the traditional technologies of terrestrial photogrammetry by using metric images, acquired with terrestrial photogrammetric camera UMK 10/1318, the terrestrial laser scanner method (TLS) and the aerial laser scanner method (ALS). We are reviewing the data sources, their preliminary processing to be brought in a common system and the software used for the creation of the final 3D models of the buildings. The comparative studies between the five methods were accomplished by analyzing the object space representation fidelity and the precision of the 3D models created for the buildings that were study in this book.
La surveillance d'un dispositif implique le diagnostic des défauts : il comprend la détection d'un changement anormal dans le comportement ou l'état d'un système et dans la localisation de sa cause. Le but est de garantir la sécurité et la continuité de service et d'enregistrer les événements utiles pour la maintenance curative ou le retour d'expérience. C'est dans cette optique que cet ouvrage est orienté. Il s'intéresse au développement des techniques et des méthodes de surveillance et de diagnostic des défauts des machines tournantes. En effet, l'objectif primordial de cette recherche est de décrire un système expert, qui, à partir des descripteurs issus des phénomènes physiques, est capable de remonter à la source du défaut pour prédire sa gravité ainsi que sa localisation. Par conséquence, la première originalité de ce travail est non seulement de signaler la présence d'un défaut, mais aussi de localiser son emplacement et de lui attribuer une criticité quantitative. La deuxième originalité réside dans la recherche d'une approche optimale de surveillance et de diagnostic des défauts des machines tournantes.
Le présent ouvrage intitulé « Conception et implémentation d'une plateforme de Gestion des incidents au LABTIC », relate la conception et l'implémentation d'une solution adaptée au contexte actuel du laboratoire et des entreprises en général dans la résolution des incidents et l'amélioration de la qualité du service. Les techniques d'élaboration de concepts, de définition de critère, d'évaluation des différentes solutions adoptées sont rigoureusement appliquées. Le modèle retenu répond aux critères d'efficacité. L'application qui a été conçu à partir de ce modèle met en évidence l'esprit méthodique et la rigueur dans le travail. Il sera utilisé dans tous les services d'une entreprise de manière à ce que les membres du laboratoire qui seront utilisateur de la plateforme puissent résoudre plus rapidement les incidents qui interviennent au niveau de leur matériel informatique ou logiciel. En somme ce mémoire nous a permis de mettre en valeur nos connaissances théoriques et pratiques acquise durant cette année académique.
Aujourd'hui, grâce au haut niveau d'intégration atteint dans le domaine des circuits intégrés, des systèmes numériques complets peuvent être intégrés sur une même puce. Pour faire face à la complexité de conception, nous nous intéressons, dans ce livre, à la modélisation multi-niveau des Systems on Chips (SoC) et à la synthèse des blocs IPs réutilisables. Notre travail est une contribution à l'analyse approfondie des différents niveaux de modélisation d'un système et des différents niveaux transactionnels de la communication inter-modules (message, transaction, transfert, pin, RTL). Nous avons proposé des approches de conception des blocs Intellectual Property (IP) visant l'augmentation de leurs taux de réutilisation. Ces approches sont basées d'une part, sur la séparation complète entre la partie de traitement et la partie de communication et d'autre part sur l'ordonnancement adéquat des opérations des entrées/sorties. Nous présentons également l'outil de synthèse comportementale GAUT (Générateur Automatique de l'Unité de Traitement) et les résultats de certaines expérimentations faites avec cet outil.
L'objectif principal de ce projet est la réalisation d'une interface web pour la gestion des données de la pige (applications de production) et l'analyse des applications clientes ; Puis l'audit de la base de données et du réseau. Notre mission principale a consisté d'une part, à mettre en place la nouvelle version de l'interface de contrôle de la pige riche et conviviale sur le plan de l'expérience utilisateur, et adaptée aux besoins de l'entreprise au travers de nouvelles fonctionnalités et d'autre part à faire une analyse des applications clientes et un audit du réseau et de la base de données. Concernant l'aspect technique de l'interface web de contrôle, nous avons utilisé la technologie Silverlight qui nous a permis de disposer d'une Interface Homme Machine (IHM) riche et intuitive ; l'utilisation des web services nous a offert à la fin une application orientée services modulaire et réutilisable dont les services peuvent être consommés par de nombreuses applications de nature diverse (applications PHP, Ajax, Java, Android, Windows Phone, WPF etc.).
Les nouvelles technologies de l'information permettent d'exploiter ces données pour des fins d'analyses par la conception d'un système d'information décisionnel basé sur la construction d'un entrepôt de données (Datawarehouse) et l'utilisation des techniques du Data Mining ou l'analyse statistique afin de permettre aux décideurs de l'entreprise d'accéder à l'information stratégique. Ce travail traite la conception et le déploiement d'un entrepôt de données et la mise en place d'une solution Business Intelligence permettant vers la fin du processus d'aboutir à des tableaux de bord synthétique et efficace offrant ainsi aux décideurs une aide à la décision accessible et évoluer, aussi la dématérialisation du parc informatique.
Le Big Data se caractérise par 5 V : Volume, Vélocité, Variété, Valeur et Véracité. Chaque jour, les opérateurs de téléphonie mobile produisent d'énormes quantités de données, de différents formats, riches en informations critiques pour la mise en oeuvre d'un pilotage efficace. Ces données, du fait de leur taille et de leur diversité, rendent de plus en plus impuissants les outils décisionnels classiques. Elles requièrent donc, pour une prise en charge efficace, les outils et techniques du Big Data. Orange Cameroun désirant mettre à disposition de ses managers l'information clé dont ils ont besoin à chaque prise de décision, qu'elle soit stratégique, tactique ou opérationnelle, notre travail a commencé par la conception d'une infrastructure Big Data pour Orange Cameroun et la mise en place d'une infrastructure pilote. Par la suite, nous nous sommes servis de cette dernière et de la méthodologie CRISP-DM pour détecter les fraudeurs bypass et prédire leur comportement en mettant en oeuvre un outil d'apprentissage artificiel. Nous avons finalement mis en oeuvre plusieurs tableaux de bord permettant de caractériser l'expérience client au travers d'un ensemble d'indicateurs.