Bouhaddi, Myria (2024). Sécurité des modèles d’apprentissage automatique. Thèse. Gatineau, Université du Québec en Outaouais, Départment d’Informatique et d’Ingénierie, 138 p.
Prévisualisation |
PDF
Télécharger (3MB) | Prévisualisation |
Résumé
L'intelligence artificielle (IA) et l’apprentissage machine (ML) sont devenus des composantes essentielles dans divers secteurs d’activité tels la santé, la finance ou la cybersécurité et permettant d’apporter des améliorations substantielles dans les processus décisionnels. Cependant, la sécurité de ces technologies représente une préoccupation majeure, car elles sont de plus en plus ciblées par des attaques sophistiquées exploitant leurs vulnérabilités inhérentes. Cette thèse aborde les défis de cybersécurité associés à l’apprentissage machine, en particulier l’apprentissage machine comme service (MLaaS), où les modèles sont accessibles via des interfaces en ligne, exposant les données et les modèles à des risques de sécuritésignificatifs.
L’objectif principal de cette recherche est de renforcer la sécurité des systèmes d’apprentissage machine face à des menaces spécifiques, telles que les attaques par inférence d’appartenances, les attaques par inférence d’attributs et les attaques par empoisonnement des récompenses. Le but est de développer des méthodes rigoureuses et robustes qui détectent et déjouent ces attaques, tout en préservant la performance et l’utilité des modèles ML.
La thèse propose plusieurs contributions : d’abord, nous avons mis au point une nouvelle méthode pour protéger la confidentialité des données d’entraînement contre les attaques par inférence d’appartenance, en ajoutant un bruit soigneusement calculé aux vecteurs de prédiction. Cette approche diminue efficacement la précision des attaques tout en conservant l’intégrité des sorties des modèles. Ensuite, nous avons proposé des techniques pour prévenir l’inférence d’attributs sensibles à partir des scores de prédiction, comme le masquage des scores et la création d’exemples adverses, renforçant ainsi la résilience des modèles contre ces attaques. Enfin, nous avons abordé les attaques par empoisonnement des récompenses en proposant une stratégie d’entraînement multi-environnements pour l’apprentissage par renforcement, permettant ainsi à l’agent d’apprentissage de distinguer et de neutraliser les récompenses manipulées. De plus, l’intégration d’outils de la théorie des jeux nous a permis d’affiner nos modèles pour qu’ils s’adaptent plus efficacement aux contextes adverses et garantissant, ainsi, que nos défenses sont à la fois dynamiques et robustes.
Nos résultats de recherche contribuent significativement à la sécurité de l’IA, en intégrant de nouvelles solutions qui renforcent la robustesse des systèmes d’apprentissage machine face aux menaces de cybersécurité évolutives. L’efficacité de ces solutions a été validée à travers des tests rigoureux dans des environnements simulés, prouvant non seulement leurs avantages pratiques mais aussi posant les bases pour des applications réelles
Type de document: | Thèse (Thèse) |
---|---|
Directeur de mémoire/thèse: | Ali, Kamel |
Départements et école, unités de recherche et services: | Informatique et ingénierie |
Date de dépôt: | 05 juin 2025 12:33 |
Dernière modification: | 05 juin 2025 12:33 |
URI: | https://di.uqo.ca/id/eprint/1795 |
Gestion Actions (Identification requise)
![]() |
Dernière vérification avant le dépôt |