A partir de cette page vous pouvez :
Retourner au premier Ă©cran avec les recherches... |
unité des PFE
169 résultat(s)
Affiner la recherche
Affiner la recherche
ALM Dynamique et Analytics sur le DataMart ALM de la CDG Capital / Iman Marouane / Nahla Alami
Titre : ALM Dynamique et Analytics sur le DataMart ALM de la CDG Capital Type de document : projet fin études Auteurs : Iman Marouane / Nahla Alami, Auteur Langues : Français (fre) Catégories : e-Management et Business Intelligence Index. décimale : 1955/18 ALM Dynamique et Analytics sur le DataMart ALM de la CDG Capital [projet fin études] / Iman Marouane / Nahla Alami, Auteur . - [s.d.].
Langues : Français (fre)
Catégories : e-Management et Business Intelligence Index. décimale : 1955/18 Réservation
RĂ©server ce document
Exemplaires
Code barre Cote Support Localisation Section DisponibilitĂ© 1955/18 1955/18 IMA Texte imprimé unité des PFE PFE/2018 Disponible AmĂ©lioration des MĂ©triques de TraçabilitĂ© des Projets Automobiles / Nada EL BOUSTAOUI
Titre : AmĂ©lioration des MĂ©triques de TraçabilitĂ© des Projets Automobiles Type de document : projet fin Ă©tudes Auteurs : Nada EL BOUSTAOUI, Auteur Langues : Français (fre) CatĂ©gories : Systèmes embarquĂ©s et mobiles Index. dĂ©cimale : 2020/18 RĂ©sumĂ© : L’ingénierie des exigences est la discipline d’ingénierie concernée par les objectifs du monde réel d’un système. La première mesure du succès d’un système est de savoir à quel point ce système répond aux objectifs pour lesquelles il a été conçu. Dans le cadre de l’ingénierie des exigences, les ingénieurs ont pour but de d’identifier le besoin du client, l’analyser et le documenter de telle façon à ce qu’il soit prêt pour l’analyse, la conception, l’implémentation et le suivi de l’état d’avancement des étapes du processus appliqué aux exigences. Ceci dit cette discipline se présente dans deux phases la première étant la définition des exigences et la deuxième étant la gestion de ces dernières. Dans le processus de gestion des exigences un suivi des exigences doit être mis en place. Le suivi des états d’avancement, des erreurs et le calcul de métriques de traçabilité sont alors nécessaires pour pouvoir prendre de meilleures décisions, prédire et réagir aux imprévus durant le projet, chose qui pourrait être très couteuse pour l’entreprise. Au sein de LEAR CORPORATION un outil a été développé en interne et est utilisé pour générer les rapports d’analyse et de traçabilité des exigences. Cet outil étant volumineux et non structuré prend un temps d’exécution très élevé et ne génère que les rapports concernant certaines phases du processus de gestion de projets adopté par la société. C’est dans ce cadre que notre stage de fin d’étude a été effectué. Le but ultime de notre travaille pendant cette durée était d’améliorer au maximum possible le suivi des projets dont la génération des métriques et matrices de traçabilité des projets. AmĂ©lioration des MĂ©triques de TraçabilitĂ© des Projets Automobiles [projet fin Ă©tudes] / Nada EL BOUSTAOUI, Auteur . - [s.d.].
Langues : Français (fre)
CatĂ©gories : Systèmes embarquĂ©s et mobiles Index. dĂ©cimale : 2020/18 RĂ©sumĂ© : L’ingénierie des exigences est la discipline d’ingénierie concernée par les objectifs du monde réel d’un système. La première mesure du succès d’un système est de savoir à quel point ce système répond aux objectifs pour lesquelles il a été conçu. Dans le cadre de l’ingénierie des exigences, les ingénieurs ont pour but de d’identifier le besoin du client, l’analyser et le documenter de telle façon à ce qu’il soit prêt pour l’analyse, la conception, l’implémentation et le suivi de l’état d’avancement des étapes du processus appliqué aux exigences. Ceci dit cette discipline se présente dans deux phases la première étant la définition des exigences et la deuxième étant la gestion de ces dernières. Dans le processus de gestion des exigences un suivi des exigences doit être mis en place. Le suivi des états d’avancement, des erreurs et le calcul de métriques de traçabilité sont alors nécessaires pour pouvoir prendre de meilleures décisions, prédire et réagir aux imprévus durant le projet, chose qui pourrait être très couteuse pour l’entreprise. Au sein de LEAR CORPORATION un outil a été développé en interne et est utilisé pour générer les rapports d’analyse et de traçabilité des exigences. Cet outil étant volumineux et non structuré prend un temps d’exécution très élevé et ne génère que les rapports concernant certaines phases du processus de gestion de projets adopté par la société. C’est dans ce cadre que notre stage de fin d’étude a été effectué. Le but ultime de notre travaille pendant cette durée était d’améliorer au maximum possible le suivi des projets dont la génération des métriques et matrices de traçabilité des projets. RĂ©servation
RĂ©server ce document
Exemplaires
Code barre Cote Support Localisation Section DisponibilitĂ© 2020/18 2020/18 NAD Texte imprimé unité des PFE PFE/2018 Disponible AmĂ©lioration de la performance industrielle par e-Tracking au sein du Ciment du Maroc-Usine Ait BAHA. / AZERKI Tarek
Titre : AmĂ©lioration de la performance industrielle par e-Tracking au sein du Ciment du Maroc-Usine Ait BAHA. Type de document : projet fin Ă©tudes Auteurs : AZERKI Tarek, Auteur Langues : Français (fre) CatĂ©gories : e-Logistique Mots-clĂ©s : Ciments du Maroc, performance du processus, e-Tracking, DMAIC, Lean Six Sigma, Benchmark, gestion de projets, PMBOK. Index. dĂ©cimale : 1982/18 RĂ©sumĂ© : Ce rapport est le fruit de mon travail effectué dans le cadre du projet de fin d’études réalisé au sein de Ciments du Maroc, entreprise de fabrication des matériaux de construction, dont l’objectif est d’améliorer la performance du processus de vente du ciment en sacs ainsi que d’assurer la conduite du projet d’amélioration en se basant sur une solution e-Tracking.
Pour ce faire, j’ai utilisé la démarche DMAIC permettant de résoudre les problèmes dans le cadre de l’approche Lean Six Sigma. Tout d’abord, j’ai commencé par la définition du problème. Ensuite, j’ai entamé une mesure de la performance du processus existant via une simulation en utilisant l’outil Bizagi Modeler. Après j’ai effectué une analyse pour déterminer les causes des problèmes. Puis j’ai essayé de proposer une solution basée sur le e-Tracking par le biais d’un Benchmark entre les différentes solutions existantes sur le marché avant d’entamer la phase de gestion du projet d’implémentation de la solution en utilisant le guide PMBOK.
En guise de conclusion, le travail réalisé a permis la diminution théorique des délais d’attentes des camions de près de 40% d’où une justification de la faisabilité du projet en plus des livrables réalisés pour assurer la conduite du projet.
Amélioration de la performance industrielle par e-Tracking au sein du Ciment du Maroc-Usine Ait BAHA. [projet fin études] / AZERKI Tarek, Auteur . - [s.d.].
Langues : Français (fre)
CatĂ©gories : e-Logistique Mots-clĂ©s : Ciments du Maroc, performance du processus, e-Tracking, DMAIC, Lean Six Sigma, Benchmark, gestion de projets, PMBOK. Index. dĂ©cimale : 1982/18 RĂ©sumĂ© : Ce rapport est le fruit de mon travail effectué dans le cadre du projet de fin d’études réalisé au sein de Ciments du Maroc, entreprise de fabrication des matériaux de construction, dont l’objectif est d’améliorer la performance du processus de vente du ciment en sacs ainsi que d’assurer la conduite du projet d’amélioration en se basant sur une solution e-Tracking.
Pour ce faire, j’ai utilisé la démarche DMAIC permettant de résoudre les problèmes dans le cadre de l’approche Lean Six Sigma. Tout d’abord, j’ai commencé par la définition du problème. Ensuite, j’ai entamé une mesure de la performance du processus existant via une simulation en utilisant l’outil Bizagi Modeler. Après j’ai effectué une analyse pour déterminer les causes des problèmes. Puis j’ai essayé de proposer une solution basée sur le e-Tracking par le biais d’un Benchmark entre les différentes solutions existantes sur le marché avant d’entamer la phase de gestion du projet d’implémentation de la solution en utilisant le guide PMBOK.
En guise de conclusion, le travail réalisé a permis la diminution théorique des délais d’attentes des camions de près de 40% d’où une justification de la faisabilité du projet en plus des livrables réalisés pour assurer la conduite du projet.
RĂ©servation
RĂ©server ce document
Exemplaires
Code barre Cote Support Localisation Section DisponibilitĂ© 1982/18 1982/18 AZE Texte imprimé unité des PFE PFE/2018 Disponible Analyse des donnĂ©es issues du robot connectĂ© « UBOSmart » avec les outils du Big Data / ILYASSE BOUTKBOUT
Titre : Analyse des donnĂ©es issues du robot connectĂ© « UBOSmart » avec les outils du Big Data Type de document : projet fin Ă©tudes Auteurs : ILYASSE BOUTKBOUT, Auteur AnnĂ©e de publication : 2018 Langues : Français (fre) CatĂ©gories : e-Management et Business Intelligence Index. dĂ©cimale : 1946/18 RĂ©sumĂ© : Aujourd'hui, un nombre croissant d'entreprises analysent les données de leurs applications pour mieux comprendre le comportement de leurs clients et capitaliser sur l’information recueillie. Ils constatent que l'analyse des données pour comprendre le comportement des clients répond directement à leur désir d'augmenter la valeur de vie des clients et de faire de ces derniers des défenseurs efficaces de leurs produits. D’où le besoin d’outils d’analyse de plus en plus performants, permettant d’effectuer des analyses sur des données très volumineuses, de monter des tableaux de bord avec des indicateurs clés ou encore d’appliquer des algorithmes de machine learning pour prédire ou classifier les données. Le projet de stage de fin de mes études au sein de la société AEVAWeb s’aligne parfaitement sur cette vision.
Le présent document constitue la synthèse de mon projet de fin d’études, pour l’obtention du diplôme ingénieure d’état. Ce projet a pour objectif la réalisation d’une solution qui permet l’analyse des données issues du robot UBOSmart avec les outils du big data sur la plateforme Google Cloud, afin de comprendre le comportement et l’expérience des utilisateurs avec le robot, pour ensuite pouvoir améliorer la performance du robot et satisfaire les clients.
Pour ce faire, il a fallu en premier lieu comprendre la problématique posée, définir les besoins fonctionnels et techniques et les objectifs à atteindre. En deuxième lieu, il était nécessaire d’étudier et comprendre les solutions et les outils disponibles afin de choisir l’approche adéquate pour la mise en place de la solution. La phase de conception et l’élaboration de l’architecture a été abordée ensuite, modélisant ainsi le système futur. Enfin, une modélisation en utilisant les techniques du machine learning a été entamée. Elle a pour but prédire la possibilité que l’application Android installée sur les mobiles des utilisateurs pour contrôler les robots se plante après une durée d’utilisation.Analyse des donnĂ©es issues du robot connectĂ© « UBOSmart » avec les outils du Big Data [projet fin Ă©tudes] / ILYASSE BOUTKBOUT, Auteur . - 2018.
Langues : Français (fre)
CatĂ©gories : e-Management et Business Intelligence Index. dĂ©cimale : 1946/18 RĂ©sumĂ© : Aujourd'hui, un nombre croissant d'entreprises analysent les données de leurs applications pour mieux comprendre le comportement de leurs clients et capitaliser sur l’information recueillie. Ils constatent que l'analyse des données pour comprendre le comportement des clients répond directement à leur désir d'augmenter la valeur de vie des clients et de faire de ces derniers des défenseurs efficaces de leurs produits. D’où le besoin d’outils d’analyse de plus en plus performants, permettant d’effectuer des analyses sur des données très volumineuses, de monter des tableaux de bord avec des indicateurs clés ou encore d’appliquer des algorithmes de machine learning pour prédire ou classifier les données. Le projet de stage de fin de mes études au sein de la société AEVAWeb s’aligne parfaitement sur cette vision.
Le présent document constitue la synthèse de mon projet de fin d’études, pour l’obtention du diplôme ingénieure d’état. Ce projet a pour objectif la réalisation d’une solution qui permet l’analyse des données issues du robot UBOSmart avec les outils du big data sur la plateforme Google Cloud, afin de comprendre le comportement et l’expérience des utilisateurs avec le robot, pour ensuite pouvoir améliorer la performance du robot et satisfaire les clients.
Pour ce faire, il a fallu en premier lieu comprendre la problématique posée, définir les besoins fonctionnels et techniques et les objectifs à atteindre. En deuxième lieu, il était nécessaire d’étudier et comprendre les solutions et les outils disponibles afin de choisir l’approche adéquate pour la mise en place de la solution. La phase de conception et l’élaboration de l’architecture a été abordée ensuite, modélisant ainsi le système futur. Enfin, une modélisation en utilisant les techniques du machine learning a été entamée. Elle a pour but prédire la possibilité que l’application Android installée sur les mobiles des utilisateurs pour contrôler les robots se plante après une durée d’utilisation.RĂ©servation
RĂ©server ce document
Exemplaires
Code barre Cote Support Localisation Section DisponibilitĂ© 1946/18 1946/18 ILY Texte imprimé unité des PFE PFE/2018 Disponible Analyse prĂ©dictive des mĂ©canismes influant le marchĂ© des phosphates (consommation et prix) / Sanae EL BERROUHI
Titre : Analyse prĂ©dictive des mĂ©canismes influant le marchĂ© des phosphates (consommation et prix) Type de document : projet fin Ă©tudes Auteurs : Sanae EL BERROUHI, Auteur Langues : Français (fre) CatĂ©gories : e-Management et Business Intelligence Mots-clĂ©s : prĂ©vision, rĂ©gression linĂ©aire multiple, sĂ©rie chronologique, rĂ©seau de neurones, analyse des sentiments, rĂ©seau de neurones convolutif. Index. dĂ©cimale : 1951/18 RĂ©sumĂ© : Dans le cadre de notre projet de fin d’études à l’Ecole Nationale Supérieure d’Informatique et d’Analyse des Systèmes (ENSIAS) pour l’obtention du diplôme d’ingénieur d’Etat en informatique, nous avons effectué notre stage au sein du groupe OCP (Office Chérifien des Phosphates), leader mondial dans le secteur des phosphates.
Ce projet a pour objectif l’analyse prédictive des mécanismes influant le marché du phosphate tels que la consommation et le prix.
Dans un premier temps, nous avons effectué une étude sur des techniques de prévisions très répandues. Nous avons enfin opté pour des approches utilisant la régression linéaire multiple, les séries chronologiques, les réseaux de neurones et l’analyse des sentiments.
Ce projet s’est déroulé en trois parties. La première consiste à modéliser et prévoir la consommation des engrais de deux clients majeurs de l’OCP : Brésil et Inde ; et ceci via la régression linéaire multiple, les séries chronologiques et les réseaux de neurones. La deuxième partie repose sur l’extraction des données prix à partir des fichiers PDF et en faire des prévisions via les séries chronologiques. Enfin, la troisième partie met en place un système de prévision de la tendance des prix via l’analyse des sentiments, et ceci en utilisant un modèle de réseau de neurones convolutif sur les opinions des experts dans la matière.
Le présent rapport relate les différentes étapes pour accomplir notre mission et réaliser le projet.
Analyse prédictive des mécanismes influant le marché des phosphates (consommation et prix) [projet fin études] / Sanae EL BERROUHI, Auteur . - [s.d.].
Langues : Français (fre)
CatĂ©gories : e-Management et Business Intelligence Mots-clĂ©s : prĂ©vision, rĂ©gression linĂ©aire multiple, sĂ©rie chronologique, rĂ©seau de neurones, analyse des sentiments, rĂ©seau de neurones convolutif. Index. dĂ©cimale : 1951/18 RĂ©sumĂ© : Dans le cadre de notre projet de fin d’études à l’Ecole Nationale Supérieure d’Informatique et d’Analyse des Systèmes (ENSIAS) pour l’obtention du diplôme d’ingénieur d’Etat en informatique, nous avons effectué notre stage au sein du groupe OCP (Office Chérifien des Phosphates), leader mondial dans le secteur des phosphates.
Ce projet a pour objectif l’analyse prédictive des mécanismes influant le marché du phosphate tels que la consommation et le prix.
Dans un premier temps, nous avons effectué une étude sur des techniques de prévisions très répandues. Nous avons enfin opté pour des approches utilisant la régression linéaire multiple, les séries chronologiques, les réseaux de neurones et l’analyse des sentiments.
Ce projet s’est déroulé en trois parties. La première consiste à modéliser et prévoir la consommation des engrais de deux clients majeurs de l’OCP : Brésil et Inde ; et ceci via la régression linéaire multiple, les séries chronologiques et les réseaux de neurones. La deuxième partie repose sur l’extraction des données prix à partir des fichiers PDF et en faire des prévisions via les séries chronologiques. Enfin, la troisième partie met en place un système de prévision de la tendance des prix via l’analyse des sentiments, et ceci en utilisant un modèle de réseau de neurones convolutif sur les opinions des experts dans la matière.
Le présent rapport relate les différentes étapes pour accomplir notre mission et réaliser le projet.
RĂ©servation
RĂ©server ce document
Exemplaires
Code barre Cote Support Localisation Section DisponibilitĂ© 1951/18 1951/18 SAN Texte imprimé unité des PFE PFE/2018 Disponible Analyse prĂ©dictive des startups Ă fort potentiel au profit des investisseurs financiers / TADDIST Afaf
Titre : Analyse prĂ©dictive des startups Ă fort potentiel au profit des investisseurs financiers Type de document : projet fin Ă©tudes Auteurs : TADDIST Afaf, Auteur Langues : Français (fre) CatĂ©gories : GĂ©nie Logiciel Mots-clĂ©s : Startups, Demandes d’investissement, Finance, Valoriser, PrĂ©dire. Index. dĂ©cimale : 1898/18 RĂ©sumĂ© : Le présent document est le fruit du travail réalisé dans le cadre de mon projet de n d’études
eectué au sein de Kaokeb, cabinet de conseil digital, pour clôturer ma formation à l’École
Nationale Supérieure d’Informatique et d’Analyse des Systèmes.
Dans ce cadre, le projet consiste à réaliser un système intelligent pour évaluer et prédire les
startups à fort potentiel. L’objectif global du projet est de faciliter et automatiser le traitement
des demandes d’investissement.
An d’aboutir à notre n, nous avons adopté dans un premier temps la méthode documentaire
qui a permis de mieux cerner le sujet ; avoir des notions en nance et saisir la diculté de
valoriser une startup. Dans un second temps, nous avons implémenté le processus de la science
des données, depuis la compréhension métier jusqu’au modélisation des données passant par
la phase de collecte des données utiles à l’étude. Les deux méthodes ont aidé à une meilleure
conception du plan de travail pour arriver à répondre à une problématique dicile.
Pour mener à bien le développement de ce projet, la méthodologie Agile apparaissait la plus
adéquate à notre contexte, et plus précisément la méthode Scrum.
Analyse prédictive des startups à fort potentiel au profit des investisseurs financiers [projet fin études] / TADDIST Afaf, Auteur . - [s.d.].
Langues : Français (fre)
CatĂ©gories : GĂ©nie Logiciel Mots-clĂ©s : Startups, Demandes d’investissement, Finance, Valoriser, PrĂ©dire. Index. dĂ©cimale : 1898/18 RĂ©sumĂ© : Le présent document est le fruit du travail réalisé dans le cadre de mon projet de n d’études
eectué au sein de Kaokeb, cabinet de conseil digital, pour clôturer ma formation à l’École
Nationale Supérieure d’Informatique et d’Analyse des Systèmes.
Dans ce cadre, le projet consiste à réaliser un système intelligent pour évaluer et prédire les
startups à fort potentiel. L’objectif global du projet est de faciliter et automatiser le traitement
des demandes d’investissement.
An d’aboutir à notre n, nous avons adopté dans un premier temps la méthode documentaire
qui a permis de mieux cerner le sujet ; avoir des notions en nance et saisir la diculté de
valoriser une startup. Dans un second temps, nous avons implémenté le processus de la science
des données, depuis la compréhension métier jusqu’au modélisation des données passant par
la phase de collecte des données utiles à l’étude. Les deux méthodes ont aidé à une meilleure
conception du plan de travail pour arriver à répondre à une problématique dicile.
Pour mener à bien le développement de ce projet, la méthodologie Agile apparaissait la plus
adéquate à notre contexte, et plus précisément la méthode Scrum.
RĂ©servation
RĂ©server ce document
Exemplaires
Code barre Cote Support Localisation Section DisponibilitĂ© 1898/18 1898/18 TAD Texte imprimé unité des PFE PFE/2018 Disponible Une approche de dĂ©tection rapide des sites d'hameçonnage / Soufian El YADMANI
Titre : Une approche de dĂ©tection rapide des sites d'hameçonnage Type de document : projet fin Ă©tudes Auteurs : Soufian El YADMANI, Auteur Langues : Français (fre) CatĂ©gories : SĂ©curitĂ© des systèmes d'information Mots-clĂ©s : Hameçonnage, analyse d’URL, analyse du contenu HTML, hameçonage zero-day Index. dĂ©cimale : 1999/18 RĂ©sumĂ© : L'hameçonnage est une sorte d'attaque dans laquelle les attaquants utilisent des courriels et des sites Web frauduleux pour inciter les gens à renoncer à des renseignements personnels et confidentielles. L’hameçonnage reste l’un des grands inconvénients de l’émergence de la vente en ligne et du développement continu des transactions électroniques.
Il existe de nombreuses variantes de l’hameçonnage. Il est possible d’hameçonner pour d'autres informations en plus des noms d'utilisateur et des mots de passe tels que numéros de cartes de crédit, numéros de compte bancaire, numéros de sécurité sociale. L'hameçonnage présente des risques directs en raison de l'utilisation de titres de propriété volés et des risques indirects pour les institutions qui font des affaires en ligne en raison de l'érosion de la confiance des clients. Les dommages causés par l’hameçonnage vont du refus d'accès au courrier électronique à des pertes financières substantielles.
Ce mémoire propose une approche de détection rapide des sites Web d’hameçonnage -PhishHunt - qui utilise la récupération des sites Web nouvellement enregistrés sur le DNS ainsi que les sites ayant des attributions ou des modifications sur les certificats électroniques, les analyser sur plusieurs étapes afin de décider la légitimité ou non du site Web. Cette approche offre une haute précision de détection, avec l'avantage de détecter les attaques d’hameçonnage zero-day (rapidité).
Une approche de détection rapide des sites d'hameçonnage [projet fin études] / Soufian El YADMANI, Auteur . - [s.d.].
Langues : Français (fre)
CatĂ©gories : SĂ©curitĂ© des systèmes d'information Mots-clĂ©s : Hameçonnage, analyse d’URL, analyse du contenu HTML, hameçonage zero-day Index. dĂ©cimale : 1999/18 RĂ©sumĂ© : L'hameçonnage est une sorte d'attaque dans laquelle les attaquants utilisent des courriels et des sites Web frauduleux pour inciter les gens à renoncer à des renseignements personnels et confidentielles. L’hameçonnage reste l’un des grands inconvénients de l’émergence de la vente en ligne et du développement continu des transactions électroniques.
Il existe de nombreuses variantes de l’hameçonnage. Il est possible d’hameçonner pour d'autres informations en plus des noms d'utilisateur et des mots de passe tels que numéros de cartes de crédit, numéros de compte bancaire, numéros de sécurité sociale. L'hameçonnage présente des risques directs en raison de l'utilisation de titres de propriété volés et des risques indirects pour les institutions qui font des affaires en ligne en raison de l'érosion de la confiance des clients. Les dommages causés par l’hameçonnage vont du refus d'accès au courrier électronique à des pertes financières substantielles.
Ce mémoire propose une approche de détection rapide des sites Web d’hameçonnage -PhishHunt - qui utilise la récupération des sites Web nouvellement enregistrés sur le DNS ainsi que les sites ayant des attributions ou des modifications sur les certificats électroniques, les analyser sur plusieurs étapes afin de décider la légitimité ou non du site Web. Cette approche offre une haute précision de détection, avec l'avantage de détecter les attaques d’hameçonnage zero-day (rapidité).
RĂ©servation
RĂ©server ce document
Exemplaires
Code barre Cote Support Localisation Section DisponibilitĂ© 1999/18 1999/18 SOU Texte imprimé unité des PFE PFE/2018 Disponible Audit interne des bases de donnĂ©es Oracle / CHAKOR Loubna
Titre : Audit interne des bases de donnĂ©es Oracle Type de document : projet fin Ă©tudes Auteurs : CHAKOR Loubna, Auteur Langues : Français (fre) CatĂ©gories : SĂ©curitĂ© des systèmes d'information Mots-clĂ©s : Banque Populaire, audit interne, test d’intrusion, base de donnĂ©es, Oracle, vulnĂ©rabilitĂ©. Index. dĂ©cimale : 1998/18 RĂ©sumĂ© : Pour l’obtention du diplôme d’ingénieur d’Etat en sécurité des systèmes d’information de l’Ecole Nationale Supérieure d’Informatique et d’Analyse des Systèmes (ENSIAS), j’ai effectué mon projet de fin d’études au sein de la Banque Populaire. L’objectif de ce projet est la réalisation d’un audit interne des bases de données Oracle afin de mesurer le niveau de sécurité et de conduire à un processus de remediation des vulnérabilités découvertes.
Les bases de données Oracle contiennent une grande partie des données relationnelles existantes à travers le monde. Elles constituent des cibles idéales pour les pirates informatiques en quête de données à forte valeur ajoutée. D’où La nécessité de protéger les données les plus précieuse par le déploiement des solutions puissantes de sécurité d’Oracle.
Ce projet est constitué principalement de deux parties. La première partie a pour but de faire une recherche sur les méthodologies les plus pertinentes dans le domaine de la sécurité des SI. Ainsi que la description de la méthodologie adoptée. Tandis que la deuxième consiste à réaliser les tests d’intrusion afin de trouver les vulnérabilités exploitables en vue de proposer un plan d’actions correctives permettant d’améliorer la sécurité du système.
Audit interne des bases de données Oracle [projet fin études] / CHAKOR Loubna, Auteur . - [s.d.].
Langues : Français (fre)
CatĂ©gories : SĂ©curitĂ© des systèmes d'information Mots-clĂ©s : Banque Populaire, audit interne, test d’intrusion, base de donnĂ©es, Oracle, vulnĂ©rabilitĂ©. Index. dĂ©cimale : 1998/18 RĂ©sumĂ© : Pour l’obtention du diplôme d’ingénieur d’Etat en sécurité des systèmes d’information de l’Ecole Nationale Supérieure d’Informatique et d’Analyse des Systèmes (ENSIAS), j’ai effectué mon projet de fin d’études au sein de la Banque Populaire. L’objectif de ce projet est la réalisation d’un audit interne des bases de données Oracle afin de mesurer le niveau de sécurité et de conduire à un processus de remediation des vulnérabilités découvertes.
Les bases de données Oracle contiennent une grande partie des données relationnelles existantes à travers le monde. Elles constituent des cibles idéales pour les pirates informatiques en quête de données à forte valeur ajoutée. D’où La nécessité de protéger les données les plus précieuse par le déploiement des solutions puissantes de sécurité d’Oracle.
Ce projet est constitué principalement de deux parties. La première partie a pour but de faire une recherche sur les méthodologies les plus pertinentes dans le domaine de la sécurité des SI. Ainsi que la description de la méthodologie adoptée. Tandis que la deuxième consiste à réaliser les tests d’intrusion afin de trouver les vulnérabilités exploitables en vue de proposer un plan d’actions correctives permettant d’améliorer la sécurité du système.
RĂ©servation
RĂ©server ce document
Exemplaires
Code barre Cote Support Localisation Section DisponibilitĂ© 1998/18 1998/18 CHA Texte imprimé unité des PFE PFE/2018 Disponible Audit d’un SMSI conformĂ©ment au RGPD / Sofia YAZIDI ALAOUI
Titre : Audit d’un SMSI conformĂ©ment au RGPD Type de document : projet fin Ă©tudes Auteurs : Sofia YAZIDI ALAOUI, Auteur Langues : Français (fre) CatĂ©gories : SĂ©curitĂ© des systèmes d'information Mots-clĂ©s : RGPD, Audit, management de sĂ©curitĂ©, Analyse de risques Index. dĂ©cimale : 1987/18 RĂ©sumĂ© : Le présent document résume et synthétise le travail réalisé dans le cadre de notre projet de fin d’étude au sein de SCIURUS CONSEIL, un cabinet français spécialisé dans la cybersécurité. Le projet consiste à élaborer un guide d’accompagnement d’une TPE/PME dans le but d’auditer son système d’information conformément aux directives du règlement général sur la protection des données personnelles, adopté par la loi française en Avril 2016. Le projet s’est établi en quatre grandes étapes à savoir : une contextualisation des objectifs, de la portée et des tâches du projet. Une étape d’apprentissage concernant les différentes connaissances et compétences requises pour la réussite du projet. Ensuite une étape d’initiation à l’analyse des risques sur les données personnelles, conformément aux directives de l’ISO 27001 et de la méthode proposée par le RGPD. Dans cette période, j’ai participé à différentes formations et missions que menait le cabinet pour assister les clients à leur mise en conformité au RGPD et au management de sécurité de leurs systèmes d’informations. Enfin, une étape de formalisation et structuration des axes du guide. . Audit d’un SMSI conformĂ©ment au RGPD [projet fin Ă©tudes] / Sofia YAZIDI ALAOUI, Auteur . - [s.d.].
Langues : Français (fre)
CatĂ©gories : SĂ©curitĂ© des systèmes d'information Mots-clĂ©s : RGPD, Audit, management de sĂ©curitĂ©, Analyse de risques Index. dĂ©cimale : 1987/18 RĂ©sumĂ© : Le présent document résume et synthétise le travail réalisé dans le cadre de notre projet de fin d’étude au sein de SCIURUS CONSEIL, un cabinet français spécialisé dans la cybersécurité. Le projet consiste à élaborer un guide d’accompagnement d’une TPE/PME dans le but d’auditer son système d’information conformément aux directives du règlement général sur la protection des données personnelles, adopté par la loi française en Avril 2016. Le projet s’est établi en quatre grandes étapes à savoir : une contextualisation des objectifs, de la portée et des tâches du projet. Une étape d’apprentissage concernant les différentes connaissances et compétences requises pour la réussite du projet. Ensuite une étape d’initiation à l’analyse des risques sur les données personnelles, conformément aux directives de l’ISO 27001 et de la méthode proposée par le RGPD. Dans cette période, j’ai participé à différentes formations et missions que menait le cabinet pour assister les clients à leur mise en conformité au RGPD et au management de sécurité de leurs systèmes d’informations. Enfin, une étape de formalisation et structuration des axes du guide. . RĂ©servation
RĂ©server ce document
Exemplaires
Code barre Cote Support Localisation Section DisponibilitĂ© 1987/18 1987/18 SOF Texte imprimé unité des PFE PFE/2018 Disponible Automatisation du suivi des limites de marchĂ©s et des transactions de la banque des marchĂ©s. / AYAR Ayyoub
Titre : Automatisation du suivi des limites de marchĂ©s et des transactions de la banque des marchĂ©s. Type de document : projet fin Ă©tudes Auteurs : AYAR Ayyoub, Auteur Langues : Français (fre) CatĂ©gories : GĂ©nie Logiciel Index. dĂ©cimale : 1895/18 RĂ©sumĂ© : Le présent mémoire est une synthèse de mon projet de fin d’études, effectué au sein de la direction du Système d’Information Banque de Financement, des Marchés et des Flux du Groupe Banque Populaire, plus précisément dans le centre nationale de recherche et développement.
Ce projet s’inscrit dans une vision d’urbanisation du système d’information du Groupe Banque Populaire qui vise à automatiser le suivi en temps réel des limites de marchés et de transaction des activités de marchés de la Banque Centrale Populaire.
Notre objectif est de mettre en place une solution qui automatise le processus de suivi des limites de marchés et des transactions de la banque des marchés en respectant les normes de la Banque Centrale Populaire et les spécifications du cahier de charge.
L’architecture du système a été implémentée en utilisant les standards MVC (Modèle, Vue, Contrôle) et la JAVA EE, Enfin, des tests assurant le bon fonctionnement des modules développés ont été établis.
Pour mener à bien la réalisation de ce projet, j’ai tout d’abord commencé par suivre une formation technique, ensuite j’ai été amenés à recueillir l’ensemble des besoins métiers, afin de pouvoir entamer la réalisation des deux parties back-end et front-end.
Ce présent rapport illustre toutes les étapes suivies, pour la réalisation de ce projet. Ceci depuis la spécification des besoins, l’analyse, en enchainant par la conception, jusqu’à la réalisation de la solution et la restitution des tableaux de bordsAutomatisation du suivi des limites de marchĂ©s et des transactions de la banque des marchĂ©s. [projet fin Ă©tudes] / AYAR Ayyoub, Auteur . - [s.d.].
Langues : Français (fre)
CatĂ©gories : GĂ©nie Logiciel Index. dĂ©cimale : 1895/18 RĂ©sumĂ© : Le présent mémoire est une synthèse de mon projet de fin d’études, effectué au sein de la direction du Système d’Information Banque de Financement, des Marchés et des Flux du Groupe Banque Populaire, plus précisément dans le centre nationale de recherche et développement.
Ce projet s’inscrit dans une vision d’urbanisation du système d’information du Groupe Banque Populaire qui vise à automatiser le suivi en temps réel des limites de marchés et de transaction des activités de marchés de la Banque Centrale Populaire.
Notre objectif est de mettre en place une solution qui automatise le processus de suivi des limites de marchés et des transactions de la banque des marchés en respectant les normes de la Banque Centrale Populaire et les spécifications du cahier de charge.
L’architecture du système a été implémentée en utilisant les standards MVC (Modèle, Vue, Contrôle) et la JAVA EE, Enfin, des tests assurant le bon fonctionnement des modules développés ont été établis.
Pour mener à bien la réalisation de ce projet, j’ai tout d’abord commencé par suivre une formation technique, ensuite j’ai été amenés à recueillir l’ensemble des besoins métiers, afin de pouvoir entamer la réalisation des deux parties back-end et front-end.
Ce présent rapport illustre toutes les étapes suivies, pour la réalisation de ce projet. Ceci depuis la spécification des besoins, l’analyse, en enchainant par la conception, jusqu’à la réalisation de la solution et la restitution des tableaux de bordsRĂ©servation
RĂ©server ce document
Exemplaires
Code barre Cote Support Localisation Section DisponibilitĂ© 1895/18 1895/18 AYA Texte imprimé unité des PFE PFE/2018 Disponible Back Office Mission - Optimisation d'allocation de ressources Ă des missions / Chaimae NYOURI / Nassim EL GHAZAZ
Titre : Back Office Mission - Optimisation d'allocation de ressources à des missions Type de document : projet fin études Auteurs : Chaimae NYOURI / Nassim EL GHAZAZ, Auteur Langues : Français (fre) Catégories : e-Logistique Mots-clés : BPM SHORE, CHUPPA, progiciel, flux physiques, flux d’information, chaîne
logistique hospitalière, optimisation, affectation, KPIs, GIT, application WEB, ENDPOINTS
REST.Index. dĂ©cimale : 1985/18 RĂ©sumĂ© : Il est clair que la logistique contribue considérablement à la performance de l’hôpital, ceci en
maitrisant les flux physiques et d’information. Cette performance logistique est évaluée au
niveau opérationnel, par le degré d’efficience atteint : la qualité de service et les ressources
consommées à cette intention. Le but est de minimiser le coût logistique total de l’ensemble des
activités pour un niveau de service donné de cette chaîne logistique hospitalière. L’optimisation
des flux des actifs est l’un des défis organisationnels majeurs des hôpitaux. Surtout que ces
actifs sont d’une valeur à ne pas négliger (par exemple le prix d’un Echographe varie entre
10000 € et 20000 €), le coût des ressources n’est pas négligeable aussi, une mauvaise affectation
de ressources va pousser l’hôpital à sous-traiter un ensemble d’opérateurs externes qui vont
exiger dans la plupart des cas des tarifs horaires ce qui va forcément affecter le budget de
l’hôpital et ensuite affecter le rendement de la chaîne logistique hospitalière toute entière.
Ce document, est le fruit de notre travail effectué dans le cadre du projet de fin d’études au sein
de BPM SHORE pour le compte de CHUPPA. Notre mission est de contribuer au lancement
du produit « CONTINUE YOUR MISSION » qui est un progiciel de gestion et de traçabilité
en milieu hospitalier. Nous avons contribué fortement dans le développement de cette solution
qui sera déployer dans un serveur distant et qui va assurer la gestion des missions d’inventaire,
de mouvement d’actifs et de bionettoyage des chambres, ainsi que la gestion des opérateurs
logistiques, leurs plannings et des différents lieux et actifs au sein de l’hôpital, tout en
choisissant des KPIs qui seront utilisées dans les pages web de cette application
Lors du développement de cette solution nous avons adopté la méthode agile SCRUM et le
cycle du développement en Y, et pour consolider les différentes parties développées en interne
nous avons utilisé les méthodes du branchement et fusionnement de GIT.
Et donc, le résultat final du projet est une application WEB qui repose sur des ENDPOINTS
REST et qui communique en interfaçage avec une application mobile qui gère les différentes
actions logistiques au sein de CHUPPA.
Back Office Mission - Optimisation d'allocation de ressources Ă des missions [projet fin Ă©tudes] / Chaimae NYOURI / Nassim EL GHAZAZ, Auteur . - [s.d.].
Langues : Français (fre)
Catégories : e-Logistique Mots-clés : BPM SHORE, CHUPPA, progiciel, flux physiques, flux d’information, chaîne
logistique hospitalière, optimisation, affectation, KPIs, GIT, application WEB, ENDPOINTS
REST.Index. dĂ©cimale : 1985/18 RĂ©sumĂ© : Il est clair que la logistique contribue considérablement à la performance de l’hôpital, ceci en
maitrisant les flux physiques et d’information. Cette performance logistique est évaluée au
niveau opérationnel, par le degré d’efficience atteint : la qualité de service et les ressources
consommées à cette intention. Le but est de minimiser le coût logistique total de l’ensemble des
activités pour un niveau de service donné de cette chaîne logistique hospitalière. L’optimisation
des flux des actifs est l’un des défis organisationnels majeurs des hôpitaux. Surtout que ces
actifs sont d’une valeur à ne pas négliger (par exemple le prix d’un Echographe varie entre
10000 € et 20000 €), le coût des ressources n’est pas négligeable aussi, une mauvaise affectation
de ressources va pousser l’hôpital à sous-traiter un ensemble d’opérateurs externes qui vont
exiger dans la plupart des cas des tarifs horaires ce qui va forcément affecter le budget de
l’hôpital et ensuite affecter le rendement de la chaîne logistique hospitalière toute entière.
Ce document, est le fruit de notre travail effectué dans le cadre du projet de fin d’études au sein
de BPM SHORE pour le compte de CHUPPA. Notre mission est de contribuer au lancement
du produit « CONTINUE YOUR MISSION » qui est un progiciel de gestion et de traçabilité
en milieu hospitalier. Nous avons contribué fortement dans le développement de cette solution
qui sera déployer dans un serveur distant et qui va assurer la gestion des missions d’inventaire,
de mouvement d’actifs et de bionettoyage des chambres, ainsi que la gestion des opérateurs
logistiques, leurs plannings et des différents lieux et actifs au sein de l’hôpital, tout en
choisissant des KPIs qui seront utilisées dans les pages web de cette application
Lors du développement de cette solution nous avons adopté la méthode agile SCRUM et le
cycle du développement en Y, et pour consolider les différentes parties développées en interne
nous avons utilisé les méthodes du branchement et fusionnement de GIT.
Et donc, le résultat final du projet est une application WEB qui repose sur des ENDPOINTS
REST et qui communique en interfaçage avec une application mobile qui gère les différentes
actions logistiques au sein de CHUPPA.
RĂ©servation
RĂ©server ce document
Exemplaires
Code barre Cote Support Localisation Section DisponibilitĂ© 1985/18 1985/18 CHA Texte imprimé unité des PFE PFE/2018 Disponible Building Automated Machine Learning Platform / EZZAT Mahmoud
Titre : Building Automated Machine Learning Platform Type de document : projet fin études Auteurs : EZZAT Mahmoud, Auteur Langues : Anglais (eng) Catégories : Ingénierie de web et Informatique mobile Mots-clés : Keywords:
v Data science
v Machine Learning
v AutoML
v Preprocessing
v Data science pipeline
v Hyper parameter
v Model selection
v Tuning
v Meta-learning
v Feature engineering
v Feature extraction
v Feature Selection
v OutperformIndex. décimale : 1930/18 Résumé : Data Science needs powerful and effective methods and tools that are comprehensive and easy
to use. Machine learning methods are particularly important for generating useful knowledge
and information from rapidly growing amounts of data. However, their use is not always easy.
Fully or partially automating a machine learning process is a long-standing goal that has
become increasingly important in the last two years. And the success of Machine Learning in a
wide range of applications has led to an ever-increasing demand for machine learning systems
that can be used on the shelf by non-experts. To be effective in practice, such systems must
automatically choose a good algorithm and include preprocessing steps for a new data set, and
also define their respective hyper parameters. Recent work has begun to address the automatic
problem of machine learning (AutoML) using efficient Bayesian optimization methods. Based
on this, Auto SK-Learn introduced a new scikit-learn-based AutoML system, (using more than
15 classifiers and more than 14 entity preprocessing methods, and more than 4 preprocessing
methods). Our system, automatically takes into account past performance on similar datasets,
and builds sets from models evaluated during optimization, and automates not only the
recommendation part of the model but the entire Data pipeline. Science.
And to achieve peak performance, modern machine learning techniques require careful data
preprocessing and hyper parametric adjustment. In addition, with the increasing number of
machine learning models being developed, model selection is becoming increasingly important.
Automating the selection and tuning of machine learning pipelines composed of data
preprocessing methods and machine learning models has long been one of the goals of the
machine learning community. In this talk, the idea is to tackle this meta-learning task by
exploiting experiments carried out in some of the different datasets to guide the exploration of
possible pipeline space. In our case, we operate information gathered from several related
experiences.
We build and automate the machine learning platform to build, validate, and deploy models,
with data preprocessing, feature engineering, future extraction, and future selection methods
that make the dataset usable for machine learning. the predictive performance of the final
machine learning model.
And since many of these steps and practices exceed the capabilities of non-experts, AutoML is
proposed as an artificial intelligence-based solution to the ever-increasing challenge of the
Graduation Project Thesis
6
Machine Learning application. Automating the end-to-end process of the machine learning
application has the advantage of producing simpler solutions, creating these solutions faster,
and producing models that often outperform hand-crafted models.
Building Automated Machine Learning Platform [projet fin Ă©tudes] / EZZAT Mahmoud, Auteur . - [s.d.].
Langues : Anglais (eng)
Catégories : Ingénierie de web et Informatique mobile Mots-clés : Keywords:
v Data science
v Machine Learning
v AutoML
v Preprocessing
v Data science pipeline
v Hyper parameter
v Model selection
v Tuning
v Meta-learning
v Feature engineering
v Feature extraction
v Feature Selection
v OutperformIndex. décimale : 1930/18 Résumé : Data Science needs powerful and effective methods and tools that are comprehensive and easy
to use. Machine learning methods are particularly important for generating useful knowledge
and information from rapidly growing amounts of data. However, their use is not always easy.
Fully or partially automating a machine learning process is a long-standing goal that has
become increasingly important in the last two years. And the success of Machine Learning in a
wide range of applications has led to an ever-increasing demand for machine learning systems
that can be used on the shelf by non-experts. To be effective in practice, such systems must
automatically choose a good algorithm and include preprocessing steps for a new data set, and
also define their respective hyper parameters. Recent work has begun to address the automatic
problem of machine learning (AutoML) using efficient Bayesian optimization methods. Based
on this, Auto SK-Learn introduced a new scikit-learn-based AutoML system, (using more than
15 classifiers and more than 14 entity preprocessing methods, and more than 4 preprocessing
methods). Our system, automatically takes into account past performance on similar datasets,
and builds sets from models evaluated during optimization, and automates not only the
recommendation part of the model but the entire Data pipeline. Science.
And to achieve peak performance, modern machine learning techniques require careful data
preprocessing and hyper parametric adjustment. In addition, with the increasing number of
machine learning models being developed, model selection is becoming increasingly important.
Automating the selection and tuning of machine learning pipelines composed of data
preprocessing methods and machine learning models has long been one of the goals of the
machine learning community. In this talk, the idea is to tackle this meta-learning task by
exploiting experiments carried out in some of the different datasets to guide the exploration of
possible pipeline space. In our case, we operate information gathered from several related
experiences.
We build and automate the machine learning platform to build, validate, and deploy models,
with data preprocessing, feature engineering, future extraction, and future selection methods
that make the dataset usable for machine learning. the predictive performance of the final
machine learning model.
And since many of these steps and practices exceed the capabilities of non-experts, AutoML is
proposed as an artificial intelligence-based solution to the ever-increasing challenge of the
Graduation Project Thesis
6
Machine Learning application. Automating the end-to-end process of the machine learning
application has the advantage of producing simpler solutions, creating these solutions faster,
and producing models that often outperform hand-crafted models.
RĂ©servation
RĂ©server ce document
Exemplaires
Code barre Cote Support Localisation Section DisponibilitĂ© 1930/18 1930/18 EZZ Texte imprimé unité des PFE PFE/2018 Disponible CÎżnceptiÎżn et implĂ©mentatiÎżn d'une interface SNMP afin de superviser et de diagnÎżstiquer un lÎżgiciel mÎżnĂ©tique. / Imane LAAMÎźURI
Titre : CÎżnceptiÎżn et implĂ©mentatiÎżn d'une interface SNMP afin de superviser et de diagnÎżstiquer un lÎżgiciel mÎżnĂ©tique. Type de document : projet fin Ă©tudes Auteurs : Imane LAAMÎźURI, Auteur Langues : Français (fre) CatĂ©gories : IngĂ©nierie de web et Informatique mobile Mots-clĂ©s : MÎżnĂ©tique, DiagnÎżstic, PayWay, SNMP, SupervisiÎżn. Index. dĂ©cimale : 1907/18 RĂ©sumĂ© : Ce rappοrt cοnstitue une synthèse de mοn prοjet de fin d’études, effectué au sein de la sοciété PayLοgic à Casablanca. Ce prοjet a pοur but de réaliser la cοnceptiοn et l’implémentatiοn d’une interface SNMP afin de faciliter la supervisiοn et le diagnοstic d’un lοgiciel mοnétique.
Pοur ce faire, nοus sοmmes amenés tοut d’abοrd à cοmprendre les différents mοdules du lοgiciel que nοus sοmmes censés superviser, appelé PayWay. En effet, c’est le prοduit phare de la sοciété qui permet la gestiοn de tοutes les activités de paiement au sein des banques en temps réel. Puis, il fallait étudier et maitriser le prοtοcοle SNMP (Simple Netwοrk Management Prοtοcοl) qui a pοur οbjectif la surveillance et la gestiοn des systèmes et des unités dans un réseau. Pοur ensuite passer à la phase de cοnceptiοn de l’interface de supervisiοn suivie par la dernière étape qui a été cοnsacré à l’implémentatiοn et la réalisatiοn tοut en se basant sur différentes technοlοgies et langages.
Cοnceptiοn et implémentatiοn d'une interface SNMP afin de superviser et de diagnοstiquer un lοgiciel mοnétique. [projet fin études] / Imane LAAMΟURI, Auteur . - [s.d.].
Langues : Français (fre)
CatĂ©gories : IngĂ©nierie de web et Informatique mobile Mots-clĂ©s : MÎżnĂ©tique, DiagnÎżstic, PayWay, SNMP, SupervisiÎżn. Index. dĂ©cimale : 1907/18 RĂ©sumĂ© : Ce rappοrt cοnstitue une synthèse de mοn prοjet de fin d’études, effectué au sein de la sοciété PayLοgic à Casablanca. Ce prοjet a pοur but de réaliser la cοnceptiοn et l’implémentatiοn d’une interface SNMP afin de faciliter la supervisiοn et le diagnοstic d’un lοgiciel mοnétique.
Pοur ce faire, nοus sοmmes amenés tοut d’abοrd à cοmprendre les différents mοdules du lοgiciel que nοus sοmmes censés superviser, appelé PayWay. En effet, c’est le prοduit phare de la sοciété qui permet la gestiοn de tοutes les activités de paiement au sein des banques en temps réel. Puis, il fallait étudier et maitriser le prοtοcοle SNMP (Simple Netwοrk Management Prοtοcοl) qui a pοur οbjectif la surveillance et la gestiοn des systèmes et des unités dans un réseau. Pοur ensuite passer à la phase de cοnceptiοn de l’interface de supervisiοn suivie par la dernière étape qui a été cοnsacré à l’implémentatiοn et la réalisatiοn tοut en se basant sur différentes technοlοgies et langages.
RĂ©servation
RĂ©server ce document
Exemplaires
Code barre Cote Support Localisation Section DisponibilitĂ© 1907/18 1907/18 IMA Texte imprimé unité des PFE PFE/2018 Disponible Characterization of Flood Effects via Twitter / Rania EL BOUHSSINI
Titre : Characterization of Flood Effects via Twitter Type de document : projet fin Ă©tudes Auteurs : Rania EL BOUHSSINI, Auteur Langues : Français (fre) CatĂ©gories : IngĂ©nierie de web et Informatique mobile Mots-clĂ©s : Floods, natural human language, socioscope, machine learning algorithms, visualization. Index. dĂ©cimale : 1916/18 RĂ©sumĂ© : Social media has been highly implemented in our lives, about 8039 tweets per second [w1]. Business leaders and researches realized the importance of exploring this huge amount of data in many domains. During situational awareness, users tend to post messages in order to ask for help, prevent and report about the situational awareness. Analyzing these tweets could be of a tremendous help for local authorities to manage the disaster. Thus, the idea of considering citizens as sensors [0], which allows preventing excessive damage if the uploaded data is gently exploited. This thesis is mainly focused on floods being the most common type of disaster in the world [1], and most devastating. In all, floods have caused in France the death of more than a hundred peoples since the early 20th century [2] . Furthermore, flooding is also the first budget item of the French regime of natural disasters, representing 56% [3] of total costs of indemnifications provided. This fact motivates the Bureau des Recherches Géologiques et Minière to work on social sensing project applied to earthquakes, floods. My thesis concerns the flooding part. The purpose of this project is to build a model capable of classifying automatically the tweets according to a certain schema of classes, the output should be the information on the flooding effects on people, material infractures. In short, our goal is to use Twitter as a socioscope that connects local authorities to the affected zones without consuming much time and efforts. To do this, a vast and diverse data set need to uploaded, for all the French tweets during flooding time, a process of the human natural language should be done, and a comparison between the different machine learning algorithms is required. Finally, the build model should be evaluated and optimized, so we can present the outcome though some maps to visualize the work.
Characterization of Flood Effects via Twitter [projet fin Ă©tudes] / Rania EL BOUHSSINI, Auteur . - [s.d.].
Langues : Français (fre)
CatĂ©gories : IngĂ©nierie de web et Informatique mobile Mots-clĂ©s : Floods, natural human language, socioscope, machine learning algorithms, visualization. Index. dĂ©cimale : 1916/18 RĂ©sumĂ© : Social media has been highly implemented in our lives, about 8039 tweets per second [w1]. Business leaders and researches realized the importance of exploring this huge amount of data in many domains. During situational awareness, users tend to post messages in order to ask for help, prevent and report about the situational awareness. Analyzing these tweets could be of a tremendous help for local authorities to manage the disaster. Thus, the idea of considering citizens as sensors [0], which allows preventing excessive damage if the uploaded data is gently exploited. This thesis is mainly focused on floods being the most common type of disaster in the world [1], and most devastating. In all, floods have caused in France the death of more than a hundred peoples since the early 20th century [2] . Furthermore, flooding is also the first budget item of the French regime of natural disasters, representing 56% [3] of total costs of indemnifications provided. This fact motivates the Bureau des Recherches Géologiques et Minière to work on social sensing project applied to earthquakes, floods. My thesis concerns the flooding part. The purpose of this project is to build a model capable of classifying automatically the tweets according to a certain schema of classes, the output should be the information on the flooding effects on people, material infractures. In short, our goal is to use Twitter as a socioscope that connects local authorities to the affected zones without consuming much time and efforts. To do this, a vast and diverse data set need to uploaded, for all the French tweets during flooding time, a process of the human natural language should be done, and a comparison between the different machine learning algorithms is required. Finally, the build model should be evaluated and optimized, so we can present the outcome though some maps to visualize the work.
RĂ©servation
RĂ©server ce document
Exemplaires
Code barre Cote Support Localisation Section DisponibilitĂ© 1916/18 1916/18 RAN Texte imprimé unité des PFE PFE/2018 Disponible Codage et traitement du signal d’un système embarquĂ© et mobile / INTAZGA Sara
Titre : Codage et traitement du signal d’un système embarquĂ© et mobile Type de document : projet fin Ă©tudes Auteurs : INTAZGA Sara, Auteur Langues : Français (fre) CatĂ©gories : GĂ©nie Logiciel Index. dĂ©cimale : 1904/18 RĂ©sumĂ© : Le présent document constitue une synthèse de mon projet de fin d’études, effectué au sein de l’entreprise Digit&Soft. Ce projet a pour but l’analyse et le traitement d’un signal numérique issue d’un accéléromètre afin d’éliminer le bruit et diminuer le taux d’erreur dans le signal qui contient des données brutes sur l’état des vagues. Puis le développement d’un logiciel permettant la surveillance et la prévision de l’état de la mer.
Durant le projet, nous avons eu pour mission, dans un premier temps, de cerner le sujet, de comprendre le métier du service, et de mener une étude concernant le système embarqué existant, ses fonctionnalités et ses limites. Nous avons mené ensuite une analyse détaillée des filtres du signale et une étude comparative des différents filtres, suivie de l’implémentation du filtre choisi avant d’aborder la partie réalisation.
Le projet a été élaboré en trois grandes étapes, à savoir : Une étude du métier qui comporte une analyse détaillée des vagues, les paramètres à collecter et des généralités sur le système embarqué. Une étude détaillée des filtres du signal pour choisir le plus convenable La réalisation de l’application permettant le suivi et la prévision de l’état de la merCodage et traitement du signal d’un système embarquĂ© et mobile [projet fin Ă©tudes] / INTAZGA Sara, Auteur . - [s.d.].
Langues : Français (fre)
CatĂ©gories : GĂ©nie Logiciel Index. dĂ©cimale : 1904/18 RĂ©sumĂ© : Le présent document constitue une synthèse de mon projet de fin d’études, effectué au sein de l’entreprise Digit&Soft. Ce projet a pour but l’analyse et le traitement d’un signal numérique issue d’un accéléromètre afin d’éliminer le bruit et diminuer le taux d’erreur dans le signal qui contient des données brutes sur l’état des vagues. Puis le développement d’un logiciel permettant la surveillance et la prévision de l’état de la mer.
Durant le projet, nous avons eu pour mission, dans un premier temps, de cerner le sujet, de comprendre le métier du service, et de mener une étude concernant le système embarqué existant, ses fonctionnalités et ses limites. Nous avons mené ensuite une analyse détaillée des filtres du signale et une étude comparative des différents filtres, suivie de l’implémentation du filtre choisi avant d’aborder la partie réalisation.
Le projet a été élaboré en trois grandes étapes, à savoir : Une étude du métier qui comporte une analyse détaillée des vagues, les paramètres à collecter et des généralités sur le système embarqué. Une étude détaillée des filtres du signal pour choisir le plus convenable La réalisation de l’application permettant le suivi et la prévision de l’état de la merRĂ©servation
RĂ©server ce document
Exemplaires
Code barre Cote Support Localisation Section DisponibilitĂ© 1904/18 1904/18 INT Texte imprimé unité des PFE PFE/2018 Disponible