Dépôt institutionnel de l'UQO
RECHERCHER

Multimodal and multivariate texture representation based on the finite mixtures of generalized gaussians with applications

Téléchargements

Téléchargements par mois depuis la dernière année

Plus de statistiques...

Yapi, Ndah Daniel (2021). Multimodal and multivariate texture representation based on the finite mixtures of generalized gaussians with applications. Thèse. Gatineau, Université du Québec en Outaouais, Département d'informatique et d'ingénierie, 146 p.

[thumbnail of Yapi_Ndah_Daniel_2021_these.pdf]
Prévisualisation
PDF
Télécharger (7MB) | Prévisualisation

Résumé

La texture est une caractéristique fondamentale de nombreux types d’images, et sa représentation est l’un des problèmes essentiels et difficiles de la vision par ordinateur et de la reconnaissance de formes, qui reste un sujet de recherche intensive. L’enjeu principal est alors de développer des méthodes capables de résumer, représenter n’importe quelle texture, monochrome ou couleur dans une signature compacte qui incarne autant d’informations que possible permettant de distinguer cette texture d’une autre. Diverses méthodes de représentation texturale et de modélisation ont été proposées au cours des dernières décennies, mais le problème reste d’actualité. Récemment, des méthodes statistiques ont montré leur efficacité pour discriminer les textures, mais ces méthodes contiennent des imprécisions et des insuffisances concernant la représentation de certains types de textures tels que les textures couleurs dont les distributions des coefficients des transformées Muli-résolution exhibent une multi-variabilité et une multimodalité. Notre objectif principal dans ce travail est de développer des modèles statistiques pour la représentation de texture qui abordent ces limitations pour une représentation de texture efficace. Premièrement, nous avons proposé un nouvel algorithme capable de détecter et de localiser les défauts dans la plupart des groupes de tissus. L’algorithme utilise l’apprentissage supervisé pour distinguer les tissus sans défaut des tissus défectueux, sur la base des signatures RCT-MoGG. En plus d’être compactes et rapides à calculer, ces signatures permettent une localisation précise des défauts. En fait, les défauts sont détectés lors de l’inspection de l’image en testant des patchs locaux à l’aide du classificateur bayésien appris (BC). Notre approche peut traiter plusieurs types de textiles, des plus simples aux plus complexes. Des expériences sur la base de données TILDA ont démontré que notre méthode donne de meilleurs résultats par rapport aux méthodes de pointe récentes. Deuxièmement, nous avons généralisé le modèle, pour le cas des données multivariées et multimodales. Le nouveau modèle appelé MoMGG permet non seulement de modéliser la corrélation entre les coefficients avec un emplacement, des échelles et des orientations adjacents dans la même transformée multi-résolution, mais également entre des sous-bandes de différentes transformations (par exemple, des contours et des ondelettes) pour créer une signature de texture plus riche et plus représentative. La nécessité de développer un tel modèle unifié est de pouvoir représenter tout type de texture, qu’elle soit monochrome ou
couleur. Nous avons appliqué notre approche pour la recherche d’image par le contenu en utilisant une divergence approximative de Kullback-Leibler (KLD) entre MoMGGs pour mesurer la similitude de texture. Les expériences menées sur certaines bases de données de référence ont démontré les capacités de nos modèles et leurs performances par rapport aux travaux récents de la littérature. De plus, des expérimentations sur la reconstruction d’images `a partir du MoMGG ont montré de tr`es bonnes performances, ce qui offre un potentiel énorme pour des applications telles que la super résolution et la compression image/vidéo.

Type de document: Thèse (Thèse)
Directeur de mémoire/thèse: Allili, Mohand Said
Départements et école, unités de recherche et services: Informatique et ingénierie
Date de dépôt: 17 mars 2022 18:01
Dernière modification: 17 mars 2022 18:01
URI: https://di.uqo.ca/id/eprint/1349

Actions (Identification requise)

Dernière vérification avant le dépôt Dernière vérification avant le dépôt