A partir de cette page vous pouvez :
Retourner au premier Ă©cran avec les recherches... |
unité des thèses
38 résultat(s)
Affiner la recherche
Affiner la recherche
Architecture distribuée pour la prévention d'intrusions basée sur les honeypots / Bendriss El mehdi
Titre : Architecture distribuée pour la prévention d'intrusions basée sur les honeypots Type de document : thèse Auteurs : Bendriss El mehdi, Auteur Année de publication : 2014 Langues : Français (fre) Catégories : Informatique Mots-clés : Sécurité réseaux, réseaux à autodéfense, prévention d'intrusions, pot de miel, réaction aux attaques. Index. décimale : Doct/199 Architecture distribuée pour la prévention d'intrusions basée sur les honeypots [thèse] / Bendriss El mehdi, Auteur . - 2014.
Langues : Français (fre)
Catégories : Informatique Mots-clés : Sécurité réseaux, réseaux à autodéfense, prévention d'intrusions, pot de miel, réaction aux attaques. Index. décimale : Doct/199 Réservation
RĂ©server ce document
Exemplaires
Code barre Cote Support Localisation Section DisponibilitĂ© Doct/199 Doct/199 BEN Texte imprimé unité des thèses UFR Doctorat Disponible conception et optimisation de dĂ©codeurs itĂ©ratifs pour les codes en bloc linĂ©aires / Farchane Abderrazak
Titre : conception et optimisation de dĂ©codeurs itĂ©ratifs pour les codes en bloc linĂ©aires Type de document : thèse Auteurs : Farchane Abderrazak, Auteur AnnĂ©e de publication : 2013 Langues : Français (fre) CatĂ©gories : Informatique Index. dĂ©cimale : Doct/185 RĂ©sumĂ© : L'étude présenté dans cette thèse porte sur les codes correcteurs d'erreurs. Ces derniers ont été introduits pour corriger les erreurs de transmission ou de lecture de données numériques, ou les erreurs survenant au cours de leur inscription sur un support physique ou encore lorsque les données subissent une altération sur le support de stockage.
Nous avons adapté l'algorithme JNA pour les codes BCH et résidu quadratiques.
D'après les performances de ce décodeur, nous remarquons que ce décodeur dépasse celui de Chase-2 et l'OSD pour les codes BCH. Mais, pour les codes RQ, il s'approche de l'OSD(2).
Le deuxième décodeur proposé(est de type SIHO) est basé sur la résolution de système d'équations construit à partir des premières colonnes linéairement indépendantes et correspondantes aux bits les moins fiables. D'après les performances, nous trouvons que le code BCH(2047, 2014,7) est à 0.9 dB de la limite de Shannon.
Nous avons proposé deux schémas de décodage pour les codes Concaténés généralisés.
Le premier schéma est utilisé pour décoder les codes GSCB que nous avons construit et
le deuxième schéma est utilisé pour décoder les codes GPCB. Les résultats de simulation montrent que les GSCB sont à 1.48 dB de la limite de Shannon. La comparaison entre ces deux types de concaténations montre que les codes GSCB sont meilleurs que les codes GPCB.
Le troisième décodeur proposé est à entrée et sortie pondérées, SISO, pour les codes
en bloc produits et les codes en bloc concaténés généralisés. Le décodeur proposé est plus
performant que celui de Pyndiah et al.. Il le dépasse de 1.0 dB pour les codes concaténés en parallèle et de 0.4 dB pour les codes produits.
De plus, ce décodeur nous a permis d'analyser le comportement de convergence des codes à décodage itératif, en utilisant la technique EXIT chart. les seuils obtenus par l'EXIT chart et BER chart sont sensiblement les mêmes.
conception et optimisation de décodeurs itératifs pour les codes en bloc linéaires [thèse] / Farchane Abderrazak, Auteur . - 2013.
Langues : Français (fre)
CatĂ©gories : Informatique Index. dĂ©cimale : Doct/185 RĂ©sumĂ© : L'étude présenté dans cette thèse porte sur les codes correcteurs d'erreurs. Ces derniers ont été introduits pour corriger les erreurs de transmission ou de lecture de données numériques, ou les erreurs survenant au cours de leur inscription sur un support physique ou encore lorsque les données subissent une altération sur le support de stockage.
Nous avons adapté l'algorithme JNA pour les codes BCH et résidu quadratiques.
D'après les performances de ce décodeur, nous remarquons que ce décodeur dépasse celui de Chase-2 et l'OSD pour les codes BCH. Mais, pour les codes RQ, il s'approche de l'OSD(2).
Le deuxième décodeur proposé(est de type SIHO) est basé sur la résolution de système d'équations construit à partir des premières colonnes linéairement indépendantes et correspondantes aux bits les moins fiables. D'après les performances, nous trouvons que le code BCH(2047, 2014,7) est à 0.9 dB de la limite de Shannon.
Nous avons proposé deux schémas de décodage pour les codes Concaténés généralisés.
Le premier schéma est utilisé pour décoder les codes GSCB que nous avons construit et
le deuxième schéma est utilisé pour décoder les codes GPCB. Les résultats de simulation montrent que les GSCB sont à 1.48 dB de la limite de Shannon. La comparaison entre ces deux types de concaténations montre que les codes GSCB sont meilleurs que les codes GPCB.
Le troisième décodeur proposé est à entrée et sortie pondérées, SISO, pour les codes
en bloc produits et les codes en bloc concaténés généralisés. Le décodeur proposé est plus
performant que celui de Pyndiah et al.. Il le dépasse de 1.0 dB pour les codes concaténés en parallèle et de 0.4 dB pour les codes produits.
De plus, ce décodeur nous a permis d'analyser le comportement de convergence des codes à décodage itératif, en utilisant la technique EXIT chart. les seuils obtenus par l'EXIT chart et BER chart sont sensiblement les mêmes.
RĂ©servation
RĂ©server ce document
Exemplaires
Code barre Cote Support Localisation Section DisponibilitĂ© Doct/185 Doct/185 FAR Texte imprimé unité des thèses UFR Doctorat Disponible Conception d'un système d'aide Ă la dĂ©cision en tĂ©lĂ©enseignement EDMS (E-learning DĂ©cision Making System) / Cherkaoui Leghris
Titre : Conception d'un système d'aide à la décision en téléenseignement EDMS (E-learning Décision Making System) Type de document : thèse Auteurs : Cherkaoui Leghris, Auteur Langues : Français (fre) Catégories : Informatique Mots-clés : Système d'aide à la décision, classification, télé enseignement, ontologie, description
des besoins, mobilitĂ© des apprenants, coĂ»ts.Index. dĂ©cimale : Doct/48 RĂ©sumĂ© : Les solutions de télé enseignement continuent à se développer suite à l'apparition de nouvelles
technologies de communication. Elles sont en train de s'adapter aux exigences de la nouvelle
génération des utilisateurs, notamment ceux mobiles. Par conséquent, une variété d'environnements
sophistiqués d'apprentissage fait son apparition sur le marché du télé enseignement.
D'autre part, les organismes de formation, publics et privés, s'intéressent de plus en plus à ces
nouvelles formes d'enseignement avec l'objectif principal d'attirer le maximum d'apprenants.
Toutefois, ils sont appelés à choisir un environnement parmi ceux qui répondent au mieux à leurs
moyens matériels et immatériels. Le choix d'un « bon» environnement d'apprentissage reste une
tâche difficile et dépend de plusieurs facteurs. Ces derniers allient les objectifs et les besoins
stratégiques de l'organisme de formation aux exigences technologiques des environnements de télé
enseignement telles que les réseaux de transport, les équipements utilisés, les caractéristiques des
apprenants et la sécurité.
Compte tenu de la multitude de ces facteurs et la complexité de les combiner, les décideurs éprouvent
beaucoup des difficultés à évaluer les solutions de télé enseignement et estimer leur coût, en
particulier, lorsqu'on se retrouve face à plusieurs environnements qui répondent aux mêmes besoins.
Pour pallier à cette difficulté, on propose dans le cadre de cette thèse, un système d'aide à la
décision, intitulé EDMS(E-Iearning Decision Making Sy.stem) qui aide les décideurs lors du choix d'une
classe de solution de télé enseignement en se basant sur la classification et la comparaison des coûts
des solutions. Ce système aura comme objectif original, .d'aider les décideurs à classifier et choisir les
solutions de télé enseignement qui répondent aux besoins décrits via une interface dédiée, ainsi à
comparer leur coût s'il le faut.
L'EDMS est conçu comme un système qui reçoit, en entrée, une description des besoins et des
caractéristiques souhaitées de la solution recherchée et fournit pventuellement, en sortie, une classe
et une combinaison de sous classes à qui appartient la solution. La description des besoins est gérée
par les concepts de l'ontologie, une technique innovante pour la représentation des notions liées aux
solutions de télé enseignement. Si plusieurs classes et sous classe se présentent comme sorties du
système EDMS, le décideur pourra faire appel au modèle de comparaison des coûts pour ordonner,
d'une manière relative, les résultats obtenus par la classification.
Conception d'un système d'aide à la décision en téléenseignement EDMS (E-learning Décision Making System) [thèse] / Cherkaoui Leghris, Auteur . - [s.d.].
Langues : Français (fre)
Catégories : Informatique Mots-clés : Système d'aide à la décision, classification, télé enseignement, ontologie, description
des besoins, mobilitĂ© des apprenants, coĂ»ts.Index. dĂ©cimale : Doct/48 RĂ©sumĂ© : Les solutions de télé enseignement continuent à se développer suite à l'apparition de nouvelles
technologies de communication. Elles sont en train de s'adapter aux exigences de la nouvelle
génération des utilisateurs, notamment ceux mobiles. Par conséquent, une variété d'environnements
sophistiqués d'apprentissage fait son apparition sur le marché du télé enseignement.
D'autre part, les organismes de formation, publics et privés, s'intéressent de plus en plus à ces
nouvelles formes d'enseignement avec l'objectif principal d'attirer le maximum d'apprenants.
Toutefois, ils sont appelés à choisir un environnement parmi ceux qui répondent au mieux à leurs
moyens matériels et immatériels. Le choix d'un « bon» environnement d'apprentissage reste une
tâche difficile et dépend de plusieurs facteurs. Ces derniers allient les objectifs et les besoins
stratégiques de l'organisme de formation aux exigences technologiques des environnements de télé
enseignement telles que les réseaux de transport, les équipements utilisés, les caractéristiques des
apprenants et la sécurité.
Compte tenu de la multitude de ces facteurs et la complexité de les combiner, les décideurs éprouvent
beaucoup des difficultés à évaluer les solutions de télé enseignement et estimer leur coût, en
particulier, lorsqu'on se retrouve face à plusieurs environnements qui répondent aux mêmes besoins.
Pour pallier à cette difficulté, on propose dans le cadre de cette thèse, un système d'aide à la
décision, intitulé EDMS(E-Iearning Decision Making Sy.stem) qui aide les décideurs lors du choix d'une
classe de solution de télé enseignement en se basant sur la classification et la comparaison des coûts
des solutions. Ce système aura comme objectif original, .d'aider les décideurs à classifier et choisir les
solutions de télé enseignement qui répondent aux besoins décrits via une interface dédiée, ainsi à
comparer leur coût s'il le faut.
L'EDMS est conçu comme un système qui reçoit, en entrée, une description des besoins et des
caractéristiques souhaitées de la solution recherchée et fournit pventuellement, en sortie, une classe
et une combinaison de sous classes à qui appartient la solution. La description des besoins est gérée
par les concepts de l'ontologie, une technique innovante pour la représentation des notions liées aux
solutions de télé enseignement. Si plusieurs classes et sous classe se présentent comme sorties du
système EDMS, le décideur pourra faire appel au modèle de comparaison des coûts pour ordonner,
d'une manière relative, les résultats obtenus par la classification.
RĂ©servation
RĂ©server ce document
Exemplaires
Code barre Cote Support Localisation Section DisponibilitĂ© Doct/48 Doc/48 CHE Texte imprimé unité des thèses UFR Doctorat Disponible Conception VHDL et implantation FPGA d'architectures parallèles d'algorithmes de dĂ©codage des codes correcteurs d'erreurs / El Haroussi Mustapha
Titre : Conception VHDL et implantation FPGA d'architectures parallèles d'algorithmes de dĂ©codage des codes correcteurs d'erreurs Type de document : thèse Auteurs : El Haroussi Mustapha, Auteur AnnĂ©e de publication : 2013 Langues : Français (fre) Index. dĂ©cimale : Doct/187 RĂ©sumĂ© : L’étude menée dans le cadre de cette thèse consiste à développer, concevoir et implanter
de nouvelles architectures des différents algorithmes applicables dans le domaine des
télécommunications, surtout dans le domaine de codage/décodage canal. Nous essayons
de tirer parti des avancées technologiques et des nouvelles méthodes de conception, afin
de proposer des solutions architecturales réalisables dans le contexte technologique et
méthodologique actuel. De plus, nous nous plaçons dans le domaine applicatif de la correction
d’erreurs à très haut débit. En effet, la conception et la synthèse VHDL de ces
architectures, montre que le choix d’une architecture pipeline et/ou parallélisée, permet
d’avoir un circuit FPGA moins complexe avec un débit élevé. Dans la première partie
de cette étude, nous avons étudié la conception d’une architecture "codeur/décodeur"
de code Reed-Solomon (15, k, d) et d’une architecture sans mémoire du décodeur SISO
entièrement parallèle (DSEP) de code BCH(31, 26). Pour la deuxième partie, nous avons
traité une architecture pour des décodeurs SISO pour des codes DSC(21, 11), DSC(73,
45) et nous avons proposé une nouvelle conception de l’architecture du turbo décodeur
entièrement parallèle du code produit DSC (21; 11)2. L’étude de décodage itératif des
codes simples à logique majoritaire en une étape et son implantation sur FPGA ont fait
l’objet de la dernière contribution dans ce travail. Toutes les architectures proposées sont
implantées sur FPGA en utilisant le logiciel Quartus II de Altera.Conception VHDL et implantation FPGA d'architectures parallèles d'algorithmes de dĂ©codage des codes correcteurs d'erreurs [thèse] / El Haroussi Mustapha, Auteur . - 2013.
Langues : Français (fre)
Index. dĂ©cimale : Doct/187 RĂ©sumĂ© : L’étude menée dans le cadre de cette thèse consiste à développer, concevoir et implanter
de nouvelles architectures des différents algorithmes applicables dans le domaine des
télécommunications, surtout dans le domaine de codage/décodage canal. Nous essayons
de tirer parti des avancées technologiques et des nouvelles méthodes de conception, afin
de proposer des solutions architecturales réalisables dans le contexte technologique et
méthodologique actuel. De plus, nous nous plaçons dans le domaine applicatif de la correction
d’erreurs à très haut débit. En effet, la conception et la synthèse VHDL de ces
architectures, montre que le choix d’une architecture pipeline et/ou parallélisée, permet
d’avoir un circuit FPGA moins complexe avec un débit élevé. Dans la première partie
de cette étude, nous avons étudié la conception d’une architecture "codeur/décodeur"
de code Reed-Solomon (15, k, d) et d’une architecture sans mémoire du décodeur SISO
entièrement parallèle (DSEP) de code BCH(31, 26). Pour la deuxième partie, nous avons
traité une architecture pour des décodeurs SISO pour des codes DSC(21, 11), DSC(73,
45) et nous avons proposé une nouvelle conception de l’architecture du turbo décodeur
entièrement parallèle du code produit DSC (21; 11)2. L’étude de décodage itératif des
codes simples à logique majoritaire en une étape et son implantation sur FPGA ont fait
l’objet de la dernière contribution dans ce travail. Toutes les architectures proposées sont
implantées sur FPGA en utilisant le logiciel Quartus II de Altera.RĂ©servation
RĂ©server ce document
Exemplaires
Code barre Cote Support Localisation Section DisponibilitĂ© Doct/187 Doct/187 ELH Texte imprimé unité des thèses UFR Doctorat Disponible Contribution Ă la caractĂ©risation et au dĂ©codage des codes en bloc Ă base d'algorithmes gĂ©nĂ©tiques / Nouh Said
Titre : Contribution à la caractérisation et au décodage des codes en bloc à base d'algorithmes génétiques Type de document : thèse Auteurs : Nouh Said, Auteur Année de publication : 2014 Langues : Français (fre) Catégories : Informatique Mots-clés : Codes correcteurs d’erreur, algorithmes génétiques, réseaux de neurones, distance
minimale, Ă©numĂ©rateur de poids, groupe d’automorphismes, algorithmes de dĂ©codage.Index. dĂ©cimale : doct/196 RĂ©sumĂ© : Un code correcteur d’erreur peut être caractérisé par deux paramètres, le premier est sa distance
minimale qui donne son pouvoir de correction, le deuxième est son énumérateur de poids qui permet
d’avoir ses performances analytiques. Malheureusement la détermination de ces deux caractéristiques
est un problème NP-difficile ; par conséquent et malgré toutes les méthodes développées dans ce sens,
ces métriques ne sont disponibles que pour quelques codes.
Le premier objectif principal de cette thèse consiste alors à établir de nouveaux algorithmes de
caractérisation des codes en blocs. Ainsi, nous avons établi une méthode à base des algorithmes
génétiques et une autre à base d’impulsions à l’entrée d’un décodeur afin de trouver des mots de poids
minimal dans des codes linéaires en blocs et par conséquent d’approcher leur distance minimale. D’un
autre coté, nous avons exploité l’identité de MacWilliams, la stabilité des codes linéaires en blocs par leur
groupe d’automorphisme et autres propriétés structurelles de ces codes afin de concevoir une nouvelle
méthode permettant de trouver leurs énumérateurs de poids et par conséquent leurs performances
analytiques. Nous avons validé ces méthodes sur des codes pour lesquels ces deux caractéristiques
sont connues et ensuite nous les avons appliquées pour trouver celles d’autres codes pour lesquels ces
métriques sont inconnues.
Le deuxième objectif principal de cette thèse consiste à établir de nouveaux schémas de décodage offrant
un bon rapport Performances-Complexité. Ainsi, nous avons établi un nouveau décodeur à décision
ferme des codes linéaires en blocs, qui émule le comportement des décodeurs à décision pondérée sur
des canaux binaires. Ce décodeur utilise un décodeur auxiliaire à entrée pondérée, sa comparaison
avec des concurrents montre qu’il est plus performant ; sa complexité dépend du décodeur auxiliaire
utilisé. Ensuite, nous avons conçu un nouveau décodeur à décision pondérée des codes systématiques
en blocs, à base des algorithmes génétiques. Les résultats de simulation et de comparaison ont montrés
que cet algorithme dispose d’un bon compromis performances-complexité.
Contribution à la caractérisation et au décodage des codes en bloc à base d'algorithmes génétiques [thèse] / Nouh Said, Auteur . - 2014.
Langues : Français (fre)
Catégories : Informatique Mots-clés : Codes correcteurs d’erreur, algorithmes génétiques, réseaux de neurones, distance
minimale, Ă©numĂ©rateur de poids, groupe d’automorphismes, algorithmes de dĂ©codage.Index. dĂ©cimale : doct/196 RĂ©sumĂ© : Un code correcteur d’erreur peut être caractérisé par deux paramètres, le premier est sa distance
minimale qui donne son pouvoir de correction, le deuxième est son énumérateur de poids qui permet
d’avoir ses performances analytiques. Malheureusement la détermination de ces deux caractéristiques
est un problème NP-difficile ; par conséquent et malgré toutes les méthodes développées dans ce sens,
ces métriques ne sont disponibles que pour quelques codes.
Le premier objectif principal de cette thèse consiste alors à établir de nouveaux algorithmes de
caractérisation des codes en blocs. Ainsi, nous avons établi une méthode à base des algorithmes
génétiques et une autre à base d’impulsions à l’entrée d’un décodeur afin de trouver des mots de poids
minimal dans des codes linéaires en blocs et par conséquent d’approcher leur distance minimale. D’un
autre coté, nous avons exploité l’identité de MacWilliams, la stabilité des codes linéaires en blocs par leur
groupe d’automorphisme et autres propriétés structurelles de ces codes afin de concevoir une nouvelle
méthode permettant de trouver leurs énumérateurs de poids et par conséquent leurs performances
analytiques. Nous avons validé ces méthodes sur des codes pour lesquels ces deux caractéristiques
sont connues et ensuite nous les avons appliquées pour trouver celles d’autres codes pour lesquels ces
métriques sont inconnues.
Le deuxième objectif principal de cette thèse consiste à établir de nouveaux schémas de décodage offrant
un bon rapport Performances-Complexité. Ainsi, nous avons établi un nouveau décodeur à décision
ferme des codes linéaires en blocs, qui émule le comportement des décodeurs à décision pondérée sur
des canaux binaires. Ce décodeur utilise un décodeur auxiliaire à entrée pondérée, sa comparaison
avec des concurrents montre qu’il est plus performant ; sa complexité dépend du décodeur auxiliaire
utilisé. Ensuite, nous avons conçu un nouveau décodeur à décision pondérée des codes systématiques
en blocs, à base des algorithmes génétiques. Les résultats de simulation et de comparaison ont montrés
que cet algorithme dispose d’un bon compromis performances-complexité.
RĂ©servation
RĂ©server ce document
Exemplaires
Code barre Cote Support Localisation Section DisponibilitĂ© doct/196 doct/196 NOU Texte imprimé unité des thèses UFR Doctorat Disponible Contribution aux dĂ©codage des codes en blocs et Ă la rĂ©duction du PAPR dans une modulation OFDM / Chana Idriss
Titre : Contribution aux dĂ©codage des codes en blocs et Ă la rĂ©duction du PAPR dans une modulation OFDM Type de document : thèse Auteurs : Chana Idriss, Auteur AnnĂ©e de publication : 2013 Langues : Français (fre) Index. dĂ©cimale : Doct/186 RĂ©sumĂ© : Les codes correcteurs d'erreurs sont utilisés pour améliorer la qualité de la transmission
de données via les canaux bruités, ils s'appliquent aussi lorsqu' il s'agit du stockage de
données dans des supports magnétique, comme le DVD par exemple. Un autre problème
qui s'impose est ce celui de l'adaptation du signal au canal de transmission. Pour les canaux
multi trajets la technique de l'OFDM (Orthogonal Frequency Division Multiplixing)
est la plus adéquate. Malheureusement cette technique présente un inconvenant majeur
qui réside dans la valeur très élevée du facteur de crête connu sous le nom PAPR (Pick to
Average Power Ratio). Dans Cette thèse nous proposons des méthodes basées sur le codage
et le companding(compression/decompression) pour réduire la valeur de PAPR des
signaux OFDM tout en étudiant les performance en terme de BER(Bir error rate). Ainsi
nous avons obtenu d'intéressants résultats en termes de PAPR et de BER par rapport à
l'existant. Nous présentons aussi un nouveau décodeur des codes cyclique qui conquiert en
terme de complexité et de BER (Bit Error Rate) les décodeurs à entrée pondérée les plus
référencés. Dans le domaine de turbo décodage nous présentons trois nouveaux schémas,
qui nous ont permis de s'approcher à la limite de Shannon.Contribution aux dĂ©codage des codes en blocs et Ă la rĂ©duction du PAPR dans une modulation OFDM [thèse] / Chana Idriss, Auteur . - 2013.
Langues : Français (fre)
Index. dĂ©cimale : Doct/186 RĂ©sumĂ© : Les codes correcteurs d'erreurs sont utilisés pour améliorer la qualité de la transmission
de données via les canaux bruités, ils s'appliquent aussi lorsqu' il s'agit du stockage de
données dans des supports magnétique, comme le DVD par exemple. Un autre problème
qui s'impose est ce celui de l'adaptation du signal au canal de transmission. Pour les canaux
multi trajets la technique de l'OFDM (Orthogonal Frequency Division Multiplixing)
est la plus adéquate. Malheureusement cette technique présente un inconvenant majeur
qui réside dans la valeur très élevée du facteur de crête connu sous le nom PAPR (Pick to
Average Power Ratio). Dans Cette thèse nous proposons des méthodes basées sur le codage
et le companding(compression/decompression) pour réduire la valeur de PAPR des
signaux OFDM tout en étudiant les performance en terme de BER(Bir error rate). Ainsi
nous avons obtenu d'intéressants résultats en termes de PAPR et de BER par rapport à
l'existant. Nous présentons aussi un nouveau décodeur des codes cyclique qui conquiert en
terme de complexité et de BER (Bit Error Rate) les décodeurs à entrée pondérée les plus
référencés. Dans le domaine de turbo décodage nous présentons trois nouveaux schémas,
qui nous ont permis de s'approcher à la limite de Shannon.RĂ©servation
RĂ©server ce document
Exemplaires
Code barre Cote Support Localisation Section DisponibilitĂ© Doct/186 Doct/186 CHA Texte imprimé unité des thèses UFR Doctorat Disponible Contribution Ă la dĂ©tection des signaux dans les systèmes MIMO et la rĂ©duction du PAPR dans une modulation OFDM / HervĂ© Koudougnon
Titre : Contribution à la détection des signaux dans les systèmes MIMO et la réduction du PAPR dans une modulation OFDM Type de document : thèse Auteurs : Hervé Koudougnon, Auteur Année de publication : 2015 Langues : Français (fre) Catégories : Informatique Index. décimale : Doct/238 Contribution à la détection des signaux dans les systèmes MIMO et la réduction du PAPR dans une modulation OFDM [thèse] / Hervé Koudougnon, Auteur . - 2015.
Langues : Français (fre)
Catégories : Informatique Index. décimale : Doct/238 Réservation
RĂ©server ce document
Exemplaires
Code barre Cote Support Localisation Section DisponibilitĂ© Doct/238 Doct/238 HER Texte imprimé unité des thèses UFR Doctorat Disponible Contribution Ă l'Ă©tude des codes correcteurs d'erreurs: Usage des algorithmes gĂ©nĂ©tiques / Azouaoui Ahmed
Titre : Contribution Ă l'Ă©tude des codes correcteurs d'erreurs: Usage des algorithmes gĂ©nĂ©tiques Type de document : thèse Auteurs : Azouaoui Ahmed, Auteur AnnĂ©e de publication : 2013 Langues : Français (fre) CatĂ©gories : Informatique Index. dĂ©cimale : Doct/195 RĂ©sumĂ© : La présente thèse est une contribution à la conception et le décodage des codes
linéaires à travers des études de simulation et d’autres théoriques des algorithmes
génétiques (AG). Dans une première partie, cette thèse se concentrait sur la conception
des codes lin´eaires par les AG en proposant un AG pour l’estimation de la distance minimale
pour certaines familles des codes linéaires, notamment les codes BCH et RQ.
Une étude de comparaison avec d’autres méthodes méta-heuristiques était nécessaire
pour valider notre proposition. L’algorithme conçu a été intégré dans l’évaluation de la
fitness dans un autre AG de recherche des bons codes double circulants. Dans l’optique
de valider ce dernier, nous avions procédé à une comparaison à travers un ensemble
de simulations avec la m´ethode exhaustive. Dans une deuxième partie, cette thèse se
concentrait sur le décodage des codes linéaires en développant des nouveaux décodeurs
à décision ferme (Hard) et à décision pondérée (Soft). Ces décodeurs sont basés sur les
algorithmes génétiques et simulés sur plusieurs canaux avec une modulation BPSK.
Les décodeurs à décision pondérée propos´es sont une version Soft des décodeurs Hard
bas´es sur les ensembles d’information et de parité d’un code et ont été appliqués sur
des codes en blocs lin´eaires binaires et non binaires. L’ étude de la complexité analytique
des décodeurs et leur performance a été réalisée en les comparant avec les décodeurs
algébriques, notamment, BMA et Chase-BMA. Ensuite, nous avons propos´e un autre
décodeur à décision pondérée des codes linéaires basé sur les algorithmes génétiques.
L’algorithme proposé utilise le code dual. Cette nouvelle approche permettait au décodeur
proposé d’être moins complexes par rapport aux autres décodeurs pour les codes de
taux ´elev´es. L’algorithme proposé a été simulé sur différents canaux de transmission.
En outre, nous avons propos´e un nouvel opérateur de croisement exploitant les informations
spécifiées au domaine de décodage et nous l’avons comparé avec d’autres types
de croisement, notamment le croisement uniforme et le croisement `a deux points. Enfin,
nous avons propos´e un décodeur à décision pondérée basé sur une autre famille
des algorithmes génétiques dite compacte. L’étude et la comparaison des performances
et de complexité du décodeur avec différents algorithmes ont été réalisées, notamment,
avec l’algorithme de Shakeel. Ces études montrent que notre algorithme a les mêmes
performances que celui de Shakeel mais moins complexe. Dans l’optique de réduire la
complexité de notre décodeur, une deuxième version optimisée à été proposé en mettant
en oeuvre un critère d’arrêt.
Contribution à l'étude des codes correcteurs d'erreurs: Usage des algorithmes génétiques [thèse] / Azouaoui Ahmed, Auteur . - 2013.
Langues : Français (fre)
CatĂ©gories : Informatique Index. dĂ©cimale : Doct/195 RĂ©sumĂ© : La présente thèse est une contribution à la conception et le décodage des codes
linéaires à travers des études de simulation et d’autres théoriques des algorithmes
génétiques (AG). Dans une première partie, cette thèse se concentrait sur la conception
des codes lin´eaires par les AG en proposant un AG pour l’estimation de la distance minimale
pour certaines familles des codes linéaires, notamment les codes BCH et RQ.
Une étude de comparaison avec d’autres méthodes méta-heuristiques était nécessaire
pour valider notre proposition. L’algorithme conçu a été intégré dans l’évaluation de la
fitness dans un autre AG de recherche des bons codes double circulants. Dans l’optique
de valider ce dernier, nous avions procédé à une comparaison à travers un ensemble
de simulations avec la m´ethode exhaustive. Dans une deuxième partie, cette thèse se
concentrait sur le décodage des codes linéaires en développant des nouveaux décodeurs
à décision ferme (Hard) et à décision pondérée (Soft). Ces décodeurs sont basés sur les
algorithmes génétiques et simulés sur plusieurs canaux avec une modulation BPSK.
Les décodeurs à décision pondérée propos´es sont une version Soft des décodeurs Hard
bas´es sur les ensembles d’information et de parité d’un code et ont été appliqués sur
des codes en blocs lin´eaires binaires et non binaires. L’ étude de la complexité analytique
des décodeurs et leur performance a été réalisée en les comparant avec les décodeurs
algébriques, notamment, BMA et Chase-BMA. Ensuite, nous avons propos´e un autre
décodeur à décision pondérée des codes linéaires basé sur les algorithmes génétiques.
L’algorithme proposé utilise le code dual. Cette nouvelle approche permettait au décodeur
proposé d’être moins complexes par rapport aux autres décodeurs pour les codes de
taux ´elev´es. L’algorithme proposé a été simulé sur différents canaux de transmission.
En outre, nous avons propos´e un nouvel opérateur de croisement exploitant les informations
spécifiées au domaine de décodage et nous l’avons comparé avec d’autres types
de croisement, notamment le croisement uniforme et le croisement `a deux points. Enfin,
nous avons propos´e un décodeur à décision pondérée basé sur une autre famille
des algorithmes génétiques dite compacte. L’étude et la comparaison des performances
et de complexité du décodeur avec différents algorithmes ont été réalisées, notamment,
avec l’algorithme de Shakeel. Ces études montrent que notre algorithme a les mêmes
performances que celui de Shakeel mais moins complexe. Dans l’optique de réduire la
complexité de notre décodeur, une deuxième version optimisée à été proposé en mettant
en oeuvre un critère d’arrêt.
RĂ©servation
RĂ©server ce document
Exemplaires
Code barre Cote Support Localisation Section DisponibilitĂ© doct/195 Doct/195 AZO Texte imprimé unité des thèses UFR Doctorat Disponible DĂ©codage Ă seuil interactif des codes Ă logique majoritaire / LAHMER Mohammed
Titre : DĂ©codage Ă seuil interactif des codes Ă logique majoritaire Type de document : thèse Auteurs : LAHMER Mohammed, Auteur Langues : Français (fre) CatĂ©gories : Informatique Index. dĂ©cimale : Doct/76 RĂ©sumĂ© : L'étude présentée dans cette thèse porte sur le codage correcteur d'erreurs. Nous
proposons un nouvel algorithme de décodage itératif pour les codes en blocs à logique
majoritaire. Nous avons modifié l'algorithme à seuil classique en associant à chaque décision
une fiabilité qui sera exploitée dans le décodage itératif. Les performances du nouvel
algorithme ont été étudiées sur les canaux de Gauss et de Rayleigh utilisant une modulation
BPSK. Il a été appliqué successivement aux codes concaténés en parallèle, aux codes produit
et aux codes simples. Les résultats de simulation ont montré que notre algorithme possède un
bon compromis entre la complexité et les performances. Dans une seconde phase, nous avons
étendue la technique EXIT (EXtrinsic Information Transfer), initialement utilisée pour
analyser les Turbo codes, afin d'évaluer le comportement de convergence de notre décodeur
itératif. Cette technique appliquée à la fois pour des codes produit et codes simples nous a
permis d'obtenir des seuils de convergence qui constituent en fait un bon indicateur de la
région de chute des courbes BER (Bit Error Rate).
Décodage à seuil interactif des codes à logique majoritaire [thèse] / LAHMER Mohammed, Auteur . - [s.d.].
Langues : Français (fre)
CatĂ©gories : Informatique Index. dĂ©cimale : Doct/76 RĂ©sumĂ© : L'étude présentée dans cette thèse porte sur le codage correcteur d'erreurs. Nous
proposons un nouvel algorithme de décodage itératif pour les codes en blocs à logique
majoritaire. Nous avons modifié l'algorithme à seuil classique en associant à chaque décision
une fiabilité qui sera exploitée dans le décodage itératif. Les performances du nouvel
algorithme ont été étudiées sur les canaux de Gauss et de Rayleigh utilisant une modulation
BPSK. Il a été appliqué successivement aux codes concaténés en parallèle, aux codes produit
et aux codes simples. Les résultats de simulation ont montré que notre algorithme possède un
bon compromis entre la complexité et les performances. Dans une seconde phase, nous avons
étendue la technique EXIT (EXtrinsic Information Transfer), initialement utilisée pour
analyser les Turbo codes, afin d'évaluer le comportement de convergence de notre décodeur
itératif. Cette technique appliquée à la fois pour des codes produit et codes simples nous a
permis d'obtenir des seuils de convergence qui constituent en fait un bon indicateur de la
région de chute des courbes BER (Bit Error Rate).
RĂ©servation
RĂ©server ce document
Exemplaires
Code barre Cote Support Localisation Section DisponibilitĂ© Doct/76 Doc/76 LAH Texte imprimé unité des thèses UFR Doctorat Disponible DĂ©codeur Ă base des algorithmes gĂ©nĂ©rique pour les systèmes cellulaires CDMA / EL BOUANANI Faissal
Titre : DĂ©codeur Ă base des algorithmes gĂ©nĂ©rique pour les systèmes cellulaires CDMA Type de document : thèse Auteurs : EL BOUANANI Faissal, Auteur Langues : Français (fre) CatĂ©gories : Informatique Index. dĂ©cimale : Doct/79 RĂ©sumĂ© : Ce travail de thèse consiste en une étude de simulation et théorique de la contribution des
algorithmes génétiques dans le décodage des codes linéaires sur un canal multitrajet à
évanouissement généralisé dans les systèmes cellulaires basés sur CDMA.
A partir du modèle du canal équivalent au système de communication proposé pour le
projet européen CODIT (Code Division Testbed), nous commençons par établir la capacité de
Shannon afin d'en déduire le nombre de branches du récepteur RAKE suffisantes pour éliminer
l'effet du fading et de converger vers un canal A WGN. Ensuite, nous avons étudié les
performances et la capacité de la cellule CDMA de trois schémas de codage.
Dans une deuxième étape, nous améliorons, en introduisant la notion d'élitisme, le premier
décodeur à base des algorithmes génétiques (AG), et nous l'optimisons pour différents codes
linéaires binaires. Nous montrons analytiquement et par simulation que sa complexité
temporelle est inférieure à certains décodeurs concurrents, tout en maintenant les mêmes
performances, voire les dépasser.
Ensuite, nous avons conçu un deuxième décodeur en combinant les AG avec les réseaux de
neurones, et nous montrons que sa complexité est largement réduite au détriment des
performances.
La troisième étape consistait à développer un troisième décodeur itératif (DIAG). Simulé
premièrement sur le canal AWGN, nous nous trouvons à 1.6dB de la limite de la capacité de
Shannon pour le code produit BCH(63,51,5i. En outre, la capacité de la cellule CDMA et les
performances du DIAG sur un canal à quatre trajets dépassent celles données par le décodeur
du schéma concaténé du système CODIT.
Décodeur à base des algorithmes générique pour les systèmes cellulaires CDMA [thèse] / EL BOUANANI Faissal, Auteur . - [s.d.].
Langues : Français (fre)
CatĂ©gories : Informatique Index. dĂ©cimale : Doct/79 RĂ©sumĂ© : Ce travail de thèse consiste en une étude de simulation et théorique de la contribution des
algorithmes génétiques dans le décodage des codes linéaires sur un canal multitrajet à
évanouissement généralisé dans les systèmes cellulaires basés sur CDMA.
A partir du modèle du canal équivalent au système de communication proposé pour le
projet européen CODIT (Code Division Testbed), nous commençons par établir la capacité de
Shannon afin d'en déduire le nombre de branches du récepteur RAKE suffisantes pour éliminer
l'effet du fading et de converger vers un canal A WGN. Ensuite, nous avons étudié les
performances et la capacité de la cellule CDMA de trois schémas de codage.
Dans une deuxième étape, nous améliorons, en introduisant la notion d'élitisme, le premier
décodeur à base des algorithmes génétiques (AG), et nous l'optimisons pour différents codes
linéaires binaires. Nous montrons analytiquement et par simulation que sa complexité
temporelle est inférieure à certains décodeurs concurrents, tout en maintenant les mêmes
performances, voire les dépasser.
Ensuite, nous avons conçu un deuxième décodeur en combinant les AG avec les réseaux de
neurones, et nous montrons que sa complexité est largement réduite au détriment des
performances.
La troisième étape consistait à développer un troisième décodeur itératif (DIAG). Simulé
premièrement sur le canal AWGN, nous nous trouvons à 1.6dB de la limite de la capacité de
Shannon pour le code produit BCH(63,51,5i. En outre, la capacité de la cellule CDMA et les
performances du DIAG sur un canal à quatre trajets dépassent celles données par le décodeur
du schéma concaténé du système CODIT.
RĂ©servation
RĂ©server ce document
Exemplaires
Code barre Cote Support Localisation Section DisponibilitĂ© Doct/79 Doc/79 ELB Texte imprimé unité des thèses UFR Doctorat Disponible Elaboration d'une mĂ©thode orientĂ©e architecture d'entreprise pour l'Ă©valuation de l'alignement stratĂ©gique des systèmes d'information / Elhari Kaoutar
Titre : Elaboration d'une méthode orientée architecture d'entreprise pour l'évaluation de l'alignement stratégique des systèmes d'information Type de document : thèse Auteurs : Elhari Kaoutar, Auteur Année de publication : 2012 Langues : Français (fre) Catégories : Informatique Mots-clés : Architecture d’entreprise, alignement stratégique, système d’information, évaluation,
mĂ©triques, modèle de maturitĂ©, gouvernement Ă©lectronique.Index. dĂ©cimale : Doct/173 RĂ©sumĂ© : L'alignement stratégique des systèmes d’information joue un rôle fondamental dans la
performance des organisations et dans l’acquisition de la flexibilité nécessaire afin de réagir
aux changements de la stratégie. Son évaluation est de plus en plus utilisée par les
organisations comme outil de gouvernance incontournable.
L’évaluation de l’alignement stratégique requiert une vision globale du système
d’information. C’est dans ce sens que ce travail s’intéresse à la structuration que l’architecture
d’entreprise permet aux différents éléments du système d’information dans le but de mesurer
le degré sa cohérence vis à vis de la stratégie du métier.
A cet effet, le présent travail propose une démarche d’évaluation se basant sur les concepts
d’architecture d’entreprise et utilisant des métriques qui évaluent l’alignement stratégique
entre les différentes couches de l’architecture d’entreprise. La finalité de la démarche est de
mettre à la disposition des architectes un outil les assistant dans l’évaluation de l’alignement
sur le terrain.
Deux méthodes sont ainsi proposées dans ce travail, dont la modélisation de l’architecture
d’entreprise constitue la base. La première méthode évalue les liens reliant les éléments de
l’architecture d’entreprise, au cas par cas par le biais des métriques, puis en détecte les
éléments entravant l’alignement. La deuxième permet d’évaluer de manière globale
l’alignement stratégique d’une organisation en se basant sur un modèle de maturité. Résoudre
les problèmes ainsi détectés devrait conduire vers un changement de l’architecture
d’entreprise dans le sens d’une amélioration de l’alignement stratégique. Des plateformes
applicatives supportant les deux méthodes sont développées pour supporter l’assistance de
l’évaluation sur le terrain.
Enfin, les méthodes élaborées sont mises à profit pour traiter de nombreux aspects liés à la
mise en place et/ou l’adaptation de systèmes d’information publics pour qu’ils soient alignés
avec les objectifs stratégiques du gouvernement électronique.Elaboration d'une mĂ©thode orientĂ©e architecture d'entreprise pour l'Ă©valuation de l'alignement stratĂ©gique des systèmes d'information [thèse] / Elhari Kaoutar, Auteur . - 2012.
Langues : Français (fre)
Catégories : Informatique Mots-clés : Architecture d’entreprise, alignement stratégique, système d’information, évaluation,
mĂ©triques, modèle de maturitĂ©, gouvernement Ă©lectronique.Index. dĂ©cimale : Doct/173 RĂ©sumĂ© : L'alignement stratégique des systèmes d’information joue un rôle fondamental dans la
performance des organisations et dans l’acquisition de la flexibilité nécessaire afin de réagir
aux changements de la stratégie. Son évaluation est de plus en plus utilisée par les
organisations comme outil de gouvernance incontournable.
L’évaluation de l’alignement stratégique requiert une vision globale du système
d’information. C’est dans ce sens que ce travail s’intéresse à la structuration que l’architecture
d’entreprise permet aux différents éléments du système d’information dans le but de mesurer
le degré sa cohérence vis à vis de la stratégie du métier.
A cet effet, le présent travail propose une démarche d’évaluation se basant sur les concepts
d’architecture d’entreprise et utilisant des métriques qui évaluent l’alignement stratégique
entre les différentes couches de l’architecture d’entreprise. La finalité de la démarche est de
mettre à la disposition des architectes un outil les assistant dans l’évaluation de l’alignement
sur le terrain.
Deux méthodes sont ainsi proposées dans ce travail, dont la modélisation de l’architecture
d’entreprise constitue la base. La première méthode évalue les liens reliant les éléments de
l’architecture d’entreprise, au cas par cas par le biais des métriques, puis en détecte les
éléments entravant l’alignement. La deuxième permet d’évaluer de manière globale
l’alignement stratégique d’une organisation en se basant sur un modèle de maturité. Résoudre
les problèmes ainsi détectés devrait conduire vers un changement de l’architecture
d’entreprise dans le sens d’une amélioration de l’alignement stratégique. Des plateformes
applicatives supportant les deux méthodes sont développées pour supporter l’assistance de
l’évaluation sur le terrain.
Enfin, les méthodes élaborées sont mises à profit pour traiter de nombreux aspects liés à la
mise en place et/ou l’adaptation de systèmes d’information publics pour qu’ils soient alignés
avec les objectifs stratégiques du gouvernement électronique.RĂ©servation
RĂ©server ce document
Exemplaires
Code barre Cote Support Localisation Section DisponibilitĂ© Doct/173 Doct/173 ELH Texte imprimé unité des thèses UFR Doctorat Disponible Estimation des coĂ»ts de dĂ©veloppement de logiciels par rĂ©seau neuronal RBF flou / Zakrani Abdelali
Titre : Estimation des coĂ»ts de dĂ©veloppement de logiciels par rĂ©seau neuronal RBF flou Type de document : thèse Auteurs : Zakrani Abdelali, Auteur AnnĂ©e de publication : 2012 Langues : Français (fre) CatĂ©gories : Informatique Mots-clĂ©s : Estimation des coĂ»ts de logiciels, Radial Basis function Network,Regroupement flou, gĂ©nie logiciel, COCOMO’81, Tukutuku dataset. Index. dĂ©cimale : Doct/145 RĂ©sumĂ© : L’estimation des coûts de développement de logiciels constitue toujours une tâche
complexe à accomplir et une préoccupation majeure pour les gestionnaires de projets
logiciels. Améliorer la précision des estimations fournies leur permettra un contrôle
effectif du temps et du budget durant tout le cycle de développement du logiciel.
Pour ce faire, plusieursmodèles d’estimation ont été développés et utilisés. Cependant,
le manque de données précises et/ou certaines sur le logiciel au début de son
développement d’une part, et la diversité des facteurs influençant le coût d’autre part,
ont rendu ces modèles imprécis et peu fiables.
La thèse se divise en deux objectifs principaux ; le premier consiste à développer et
valider un modèle intelligent d’estimation des coûts basé sur les réseaux de neurones
RBF (Radial Basis Function). Grâce aumécanisme d’apprentissage, lemodèle permettra
non seulement de convoyer l’évolution des méthodes et des outils de développement
logiciel, mais aussi de tolérer l’imprécision inhérente aux bases de projets historiques.
Deux algorithmes de regroupement flou sont utilisés pour la construction de la couche
cachée du réseau RBF, l’algorithme fuzzy c-means et le conditional FCM. Le deuxième
objectif est d’interpréter les estimations générées par lemodèle RBFN, ceci est réalisé en
établissant une équivalence fonctionnelle entre le modèle connexionniste développé et
un modèle d’estimation par analogie floue (Fuzzy analogy). L’étude empirique menée
utilise les bases de projets historiques COCOMO’81 et Tukutuku.
Estimation des coûts de développement de logiciels par réseau neuronal RBF flou [thèse] / Zakrani Abdelali, Auteur . - 2012.
Langues : Français (fre)
CatĂ©gories : Informatique Mots-clĂ©s : Estimation des coĂ»ts de logiciels, Radial Basis function Network,Regroupement flou, gĂ©nie logiciel, COCOMO’81, Tukutuku dataset. Index. dĂ©cimale : Doct/145 RĂ©sumĂ© : L’estimation des coûts de développement de logiciels constitue toujours une tâche
complexe à accomplir et une préoccupation majeure pour les gestionnaires de projets
logiciels. Améliorer la précision des estimations fournies leur permettra un contrôle
effectif du temps et du budget durant tout le cycle de développement du logiciel.
Pour ce faire, plusieursmodèles d’estimation ont été développés et utilisés. Cependant,
le manque de données précises et/ou certaines sur le logiciel au début de son
développement d’une part, et la diversité des facteurs influençant le coût d’autre part,
ont rendu ces modèles imprécis et peu fiables.
La thèse se divise en deux objectifs principaux ; le premier consiste à développer et
valider un modèle intelligent d’estimation des coûts basé sur les réseaux de neurones
RBF (Radial Basis Function). Grâce aumécanisme d’apprentissage, lemodèle permettra
non seulement de convoyer l’évolution des méthodes et des outils de développement
logiciel, mais aussi de tolérer l’imprécision inhérente aux bases de projets historiques.
Deux algorithmes de regroupement flou sont utilisés pour la construction de la couche
cachée du réseau RBF, l’algorithme fuzzy c-means et le conditional FCM. Le deuxième
objectif est d’interpréter les estimations générées par lemodèle RBFN, ceci est réalisé en
établissant une équivalence fonctionnelle entre le modèle connexionniste développé et
un modèle d’estimation par analogie floue (Fuzzy analogy). L’étude empirique menée
utilise les bases de projets historiques COCOMO’81 et Tukutuku.
RĂ©servation
RĂ©server ce document
Exemplaires
Code barre Cote Support Localisation Section DisponibilitĂ© Doct/145 Doct/145 ZAK Texte imprimé unité des thèses UFR Doctorat Disponible Etude de la QOS dans les rĂ©seaux overlay multicast application Ă l'optimisation de l'architecture MPNT / Redouane Benani
Titre : Etude de la QOS dans les rĂ©seaux overlay multicast application Ă l'optimisation de l'architecture MPNT Type de document : thèse Auteurs : Redouane Benani, Auteur AnnĂ©e de publication : 2005 Langues : Français (fre) CatĂ©gories : TĂ©lĂ©communication et rĂ©seaux Index. dĂ©cimale : Doct/47 RĂ©sumĂ© : Le multicast overlay a pour objectif la réalisation des services multicast à grande
échelle. Un réseau de recouvrement (réseau overlay) est une topologie virtuelle
construite au dessus de l'infrastructure physique d'Internet. Le concept des réseaux de
recouvrement permet au multicast d'être déployé comme réseau de service, permettant
un déploiement sur des réseaux hétérogènes sans modifications matérielles. Cette thèse
concerne l'étude de la qualité de service pour les réseaux multicast applicatifs (critères et
méthodes) afin de fournir des services multicast à grande échelle dans l'Internet. Les
ressources et le coût réseau dans le contexte des réseaux de recouvrement sont
différents de ceux des réseaux classiques, présentant de nouveaux défis et de nouveaux
problèmes à résoudre. Le but de notre étude est de permettre une meilleure utilisation
de réseau et d'améliorer la qualité de service d'une architecture donnée, en fonction de
ses caractéristiques. Pour cela, nous allons traité la problématique d'optimisation suivant
deux axes: l'optimisation de la topologie de recouvrement (par un compromis entre le
délai moyen et la bande passante) et la gestion èfficace du trafic de session (par un
algorithme de routage dans le recouvrement). La combinaison de ces deux axes fournit
un procédé complet pour la planification et le contrôle d'un réseau de multicast overlay.
Cette étude a ensuite servi de base à la proposition de différents mécanismes
d'optimisation de l'architecture MPNT (Multicast Proxies NeTwork). L'objectif premier de
cette architecture étant de fournir une solution multicast pour des applications à grande
échelle, la scalabilité fut donc notre souci principal. Par conséquent, nous avons proposé
des mécanismes d'optimisation scalables décentralisés pour construire et maintenir un
recouvrement efficace, offrant une diffusion multicast robuste et s'adaptant aux
différents contextes d'utilisation.
Etude de la QOS dans les réseaux overlay multicast application à l'optimisation de l'architecture MPNT [thèse] / Redouane Benani, Auteur . - 2005.
Langues : Français (fre)
CatĂ©gories : TĂ©lĂ©communication et rĂ©seaux Index. dĂ©cimale : Doct/47 RĂ©sumĂ© : Le multicast overlay a pour objectif la réalisation des services multicast à grande
échelle. Un réseau de recouvrement (réseau overlay) est une topologie virtuelle
construite au dessus de l'infrastructure physique d'Internet. Le concept des réseaux de
recouvrement permet au multicast d'être déployé comme réseau de service, permettant
un déploiement sur des réseaux hétérogènes sans modifications matérielles. Cette thèse
concerne l'étude de la qualité de service pour les réseaux multicast applicatifs (critères et
méthodes) afin de fournir des services multicast à grande échelle dans l'Internet. Les
ressources et le coût réseau dans le contexte des réseaux de recouvrement sont
différents de ceux des réseaux classiques, présentant de nouveaux défis et de nouveaux
problèmes à résoudre. Le but de notre étude est de permettre une meilleure utilisation
de réseau et d'améliorer la qualité de service d'une architecture donnée, en fonction de
ses caractéristiques. Pour cela, nous allons traité la problématique d'optimisation suivant
deux axes: l'optimisation de la topologie de recouvrement (par un compromis entre le
délai moyen et la bande passante) et la gestion èfficace du trafic de session (par un
algorithme de routage dans le recouvrement). La combinaison de ces deux axes fournit
un procédé complet pour la planification et le contrôle d'un réseau de multicast overlay.
Cette étude a ensuite servi de base à la proposition de différents mécanismes
d'optimisation de l'architecture MPNT (Multicast Proxies NeTwork). L'objectif premier de
cette architecture étant de fournir une solution multicast pour des applications à grande
échelle, la scalabilité fut donc notre souci principal. Par conséquent, nous avons proposé
des mécanismes d'optimisation scalables décentralisés pour construire et maintenir un
recouvrement efficace, offrant une diffusion multicast robuste et s'adaptant aux
différents contextes d'utilisation.
RĂ©servation
RĂ©server ce document
Exemplaires
Code barre Cote Support Localisation Section DisponibilitĂ© Doct/47 Doct/47 RED Texte imprimé unité des thèses UFR Doctorat Disponible Formalisation et implĂ©mentation de protocoles de gestion et de contrĂ´le dans un système de vidĂ©o confĂ©rence sur internet / Ouzzif Mohammed
Titre : Formalisation et implémentation de protocoles de gestion et de contrôle dans un système de vidéo conférence sur internet Type de document : thèse Auteurs : Ouzzif Mohammed, Auteur Année de publication : 2005 Langues : Français (fre) Catégories : Informatique Mots-clés : Gestion et contrôle de conférence, Description formelle, Vérification, Mécanismes
de rĂ©alisation, J MF, Platine.Index. dĂ©cimale : Doct/43 RĂ©sumĂ© : Le développement conjoint de la technologie multimédia et des réseaux informatiques a
permis l'émergence des systèmes de téléconférence multimédia (MMTS pour Multt Media
Teleconferencing System). Ces systèmes permettent à des personnes géographiquement éloignées
de se voir, communiquer et travailler sur des objets partagés. Un système de téléconférence
comporte généralement deux composantes principales. La première composante permet la mise
en place d'une téléconférence. La deuxième composante contrôle son déroulement. Plusieurs
travaux ont été proposés dans ce sens. Toutefois, peu de travaux s'intéressent à la description
formelle d'un système de téléconférence selon des politiques de gestion et de contrôle, à la
vérification de propriétés attendues de tels systèmes et à l'élaboration de mécanismes
implémentant le contrôle de leur déroulement.
Dans ce travail, nous proposons une nouvelle architecture de gestion et de contrôle de
conférence. Nous spécifions ensuite le comportement relatif à la composante de gestion et de
contrôle du déroulement de la conférence à l'aide du formalisme'd 'états finis. Ceci nous permet
d'aboutir à des descriptions claires, exactes et vérifiables. Nous identifions ainsi des propriétés
temporelles exprimant des besoins attendus des systèmes spécifiés, que nous vérifions à l'aide de
l'outil Promela/Spin. Pour l'implémentation de ces spécifications, nous adoptons des
mécanismes basés sur des algorithmes d'exclusion mutuelle distribués que nous améliorons pour
le support de l'insertion et la suppression dynamique de participants. Ces mécanismes servent de
base pour la réalisation des systèmes de téléconférence spécifiés. Ces implémentations sont
effectués à l'aide de Java et JMF ou en utilisant des environnement de visioconférence existant
tel que Platine.
Formalisation et implémentation de protocoles de gestion et de contrôle dans un système de vidéo conférence sur internet [thèse] / Ouzzif Mohammed, Auteur . - 2005.
Langues : Français (fre)
Catégories : Informatique Mots-clés : Gestion et contrôle de conférence, Description formelle, Vérification, Mécanismes
de rĂ©alisation, J MF, Platine.Index. dĂ©cimale : Doct/43 RĂ©sumĂ© : Le développement conjoint de la technologie multimédia et des réseaux informatiques a
permis l'émergence des systèmes de téléconférence multimédia (MMTS pour Multt Media
Teleconferencing System). Ces systèmes permettent à des personnes géographiquement éloignées
de se voir, communiquer et travailler sur des objets partagés. Un système de téléconférence
comporte généralement deux composantes principales. La première composante permet la mise
en place d'une téléconférence. La deuxième composante contrôle son déroulement. Plusieurs
travaux ont été proposés dans ce sens. Toutefois, peu de travaux s'intéressent à la description
formelle d'un système de téléconférence selon des politiques de gestion et de contrôle, à la
vérification de propriétés attendues de tels systèmes et à l'élaboration de mécanismes
implémentant le contrôle de leur déroulement.
Dans ce travail, nous proposons une nouvelle architecture de gestion et de contrôle de
conférence. Nous spécifions ensuite le comportement relatif à la composante de gestion et de
contrôle du déroulement de la conférence à l'aide du formalisme'd 'états finis. Ceci nous permet
d'aboutir à des descriptions claires, exactes et vérifiables. Nous identifions ainsi des propriétés
temporelles exprimant des besoins attendus des systèmes spécifiés, que nous vérifions à l'aide de
l'outil Promela/Spin. Pour l'implémentation de ces spécifications, nous adoptons des
mécanismes basés sur des algorithmes d'exclusion mutuelle distribués que nous améliorons pour
le support de l'insertion et la suppression dynamique de participants. Ces mécanismes servent de
base pour la réalisation des systèmes de téléconférence spécifiés. Ces implémentations sont
effectués à l'aide de Java et JMF ou en utilisant des environnement de visioconférence existant
tel que Platine.
RĂ©servation
RĂ©server ce document
Exemplaires
Code barre Cote Support Localisation Section DisponibilitĂ© Doct/43 Doc/43 OUZ Texte imprimé unité des thèses UFR Doctorat Disponible La gĂ©nĂ©ration de code multicibles Ă partir d'une conception VBOOM / SBIHI Boubker
Titre : La génération de code multicibles à partir d'une conception VBOOM Type de document : thèse Auteurs : SBIHI Boubker, Auteur Année de publication : 2004 Langues : Français (fre) Catégories : Informatique Mots-clés : Vue, Point de vue, Méthodes VBOOM, "'UML, Classe flexible, Relation de
visibilité, Mécanisme de filtrage, Mécanisme de traduction VBOOMIUML.Index. décimale : Doct/174 Résumé : L'objectif de cette recherche est de proposer une approche qui permet de combiner la
méthode objet d'analyse et de conception par points de vue VBOOM et le langage de
modélisation unifié UML pour permettre la génération des.codes multicibles.
En effet, ce travail vise à fournir une technique basée sur l'UML pour générer du code
multicibles correspondant à une modélisation faite selon VBOOM. Pour ce faire, nous avons
élaboré un mécanisme de traduction permettant de convertir le diagramme final de classes
VBOOM en un diagramme de classes UML. Une telle conversion permet de mettre en œuvre
le code d'un système logiciel complexe avec la majorité des langages orientés objets (tels que
JAVA, C++, etc.), autres que le langage VBOOL qui est actuellement l'unique langage cible
de la méthode VBOOM.
Cependant, la visibilité offerte par UML est insuffisante pour supporter l'aspect
dynamique de la relation de visibilité de VBOOM (changement dynamique des points de
vue). Pour pallier à ce problème, nous avons défini un mécanisme de filtrage permettant ainsi
de filtrer les services offerts par une classe selon les points de vue.
Enfin, dans le but de réduire le temps de développement, nous avons élaboré une
nouvelle méthode appelée VBOOM++ extension de la méthode VBOOM qui garde la même
démarche que VBOOM et qui se base sur le mécanisme de filtrage tout en supprimant la
notion de classe flexible et la relation de visibilité. Une telle suppression permettra de
produire un diagramme de classes purement UML et générant par la suite la majorité des
langages orientés objets.
La génération de code multicibles à partir d'une conception VBOOM [thèse] / SBIHI Boubker, Auteur . - 2004.
Langues : Français (fre)
Catégories : Informatique Mots-clés : Vue, Point de vue, Méthodes VBOOM, "'UML, Classe flexible, Relation de
visibilité, Mécanisme de filtrage, Mécanisme de traduction VBOOMIUML.Index. décimale : Doct/174 Résumé : L'objectif de cette recherche est de proposer une approche qui permet de combiner la
méthode objet d'analyse et de conception par points de vue VBOOM et le langage de
modélisation unifié UML pour permettre la génération des.codes multicibles.
En effet, ce travail vise à fournir une technique basée sur l'UML pour générer du code
multicibles correspondant à une modélisation faite selon VBOOM. Pour ce faire, nous avons
élaboré un mécanisme de traduction permettant de convertir le diagramme final de classes
VBOOM en un diagramme de classes UML. Une telle conversion permet de mettre en œuvre
le code d'un système logiciel complexe avec la majorité des langages orientés objets (tels que
JAVA, C++, etc.), autres que le langage VBOOL qui est actuellement l'unique langage cible
de la méthode VBOOM.
Cependant, la visibilité offerte par UML est insuffisante pour supporter l'aspect
dynamique de la relation de visibilité de VBOOM (changement dynamique des points de
vue). Pour pallier à ce problème, nous avons défini un mécanisme de filtrage permettant ainsi
de filtrer les services offerts par une classe selon les points de vue.
Enfin, dans le but de réduire le temps de développement, nous avons élaboré une
nouvelle méthode appelée VBOOM++ extension de la méthode VBOOM qui garde la même
démarche que VBOOM et qui se base sur le mécanisme de filtrage tout en supprimant la
notion de classe flexible et la relation de visibilité. Une telle suppression permettra de
produire un diagramme de classes purement UML et générant par la suite la majorité des
langages orientés objets.
RĂ©servation
RĂ©server ce document
Exemplaires
Code barre Cote Support Localisation Section DisponibilitĂ© Doct/174 Doct/174 SBI Texte imprimé unité des thèses UFR Doctorat Disponible