Dépôt institutionnel de l'UQO
RECHERCHER

Sécurité des modèles d’apprentissage automatique

Téléchargements

Téléchargements par mois depuis la dernière année

Bouhaddi, Myria (2024). Sécurité des modèles d’apprentissage automatique. Thèse. Gatineau, Université du Québec en Outaouais, Départment d’Informatique et d’Ingénierie, 138 p.

[thumbnail of Bouhaddi_Myria_2024_these.pdf]
Prévisualisation
PDF
Télécharger (3MB) | Prévisualisation

Résumé

L'intelligence artificielle (IA) et l’apprentissage machine (ML) sont devenus des composantes essentielles dans divers secteurs d’activité tels la santé, la finance ou la cybersécurité et permettant d’apporter des améliorations substantielles dans les processus décisionnels. Cependant, la sécurité de ces technologies représente une préoccupation majeure, car elles sont de plus en plus ciblées par des attaques sophistiquées exploitant leurs vulnérabilités inhérentes. Cette thèse aborde les défis de cybersécurité associés à l’apprentissage machine, en particulier l’apprentissage machine comme service (MLaaS), où les modèles sont accessibles via des interfaces en ligne, exposant les données et les modèles à des risques de sécuritésignificatifs.
L’objectif principal de cette recherche est de renforcer la sécurité des systèmes d’apprentissage machine face à des menaces spécifiques, telles que les attaques par inférence d’appartenances, les attaques par inférence d’attributs et les attaques par empoisonnement des récompenses. Le but est de développer des méthodes rigoureuses et robustes qui détectent et déjouent ces attaques, tout en préservant la performance et l’utilité des modèles ML.
La thèse propose plusieurs contributions : d’abord, nous avons mis au point une nouvelle méthode pour protéger la confidentialité des données d’entraînement contre les attaques par inférence d’appartenance, en ajoutant un bruit soigneusement calculé aux vecteurs de prédiction. Cette approche diminue efficacement la précision des attaques tout en conservant l’intégrité des sorties des modèles. Ensuite, nous avons proposé des techniques pour prévenir l’inférence d’attributs sensibles à partir des scores de prédiction, comme le masquage des scores et la création d’exemples adverses, renforçant ainsi la résilience des modèles contre ces attaques. Enfin, nous avons abordé les attaques par empoisonnement des récompenses en proposant une stratégie d’entraînement multi-environnements pour l’apprentissage par renforcement, permettant ainsi à l’agent d’apprentissage de distinguer et de neutraliser les récompenses manipulées. De plus, l’intégration d’outils de la théorie des jeux nous a permis d’affiner nos modèles pour qu’ils s’adaptent plus efficacement aux contextes adverses et garantissant, ainsi, que nos défenses sont à la fois dynamiques et robustes.
Nos résultats de recherche contribuent significativement à la sécurité de l’IA, en intégrant de nouvelles solutions qui renforcent la robustesse des systèmes d’apprentissage machine face aux menaces de cybersécurité évolutives. L’efficacité de ces solutions a été validée à travers des tests rigoureux dans des environnements simulés, prouvant non seulement leurs avantages pratiques mais aussi posant les bases pour des applications réelles

Type de document: Thèse (Thèse)
Directeur de mémoire/thèse: Ali, Kamel
Départements et école, unités de recherche et services: Informatique et ingénierie
Date de dépôt: 05 juin 2025 12:33
Dernière modification: 05 juin 2025 12:33
URI: https://di.uqo.ca/id/eprint/1795

Gestion Actions (Identification requise)

Dernière vérification avant le dépôt Dernière vérification avant le dépôt