Communication publiée dans un ouvrage (Colloques, congrès, conférences scientifiques et actes)
An Analysis of Byzantine-Tolerant Aggregation Mechanisms on Model Poisoning in Federated Learning
ROSZEL, Mary; NORVILL, Robert; STATE, Radu
2022In Torra, Vicenç (Ed.) Modeling Decisions for Artificial Intelligence - 19th International Conference, MDAI 2022, Proceedings
Peer reviewed
 

Documents


Texte intégral
MDAI_Federated_Defenses-3.pdf
Postprint Auteur (15.12 MB)
Demander un accès

Tous les documents dans ORBilu sont protégés par une licence d'utilisation.

Envoyer vers



Détails



Mots-clés :
Aggregation mechanism; Aggregation methods; Attacks scenarios; Backdoors; Fixed frequency; Learning settings; Machine learning models; Malicious participant; Model updates; Poisoning attacks; Theoretical Computer Science; Computer Science (all)
Résumé :
[en] Federated learning is a distributed setting where multiple participants jointly train a machine learning model without exchanging data. Recent work has found that federated learning is vulnerable to backdoor model poisoning attacks, where an attacker leverages the unique environment to submit malicious model updates. To address these malicious participants, several Byzantine-Tolerant aggregation methods have been applied to the federated learning setting, including Krum, Multi-Krum, RFA, and Norm-Difference Clipping. In this work, we analyze the effectiveness and limits of each aggregation method and provide a thorough analysis of their success in various fixed-frequency attack settings. Further, we analyze the fairness of such aggregation methods on the success of the model on its intended tasks. Our results indicate that only one defense can successfully mitigate attacks in all attack scenarios, but a significant fairness issue is observed, highlighting the issues with preventing malicious attacks in a federated setting.
Disciplines :
Sciences informatiques
Auteur, co-auteur :
ROSZEL, Mary  ;  University of Luxembourg
NORVILL, Robert ;  University of Luxembourg > Interdisciplinary Centre for Security, Reliability and Trust > SEDAN > Team Radu STATE
STATE, Radu  ;  University of Luxembourg > Interdisciplinary Centre for Security, Reliability and Trust (SNT) > SEDAN
Co-auteurs externes :
no
Langue du document :
Anglais
Titre :
An Analysis of Byzantine-Tolerant Aggregation Mechanisms on Model Poisoning in Federated Learning
Date de publication/diffusion :
30 août 2022
Nom de la manifestation :
Modeling Decisions for Artificial Intelligence - 19th International Conference, MDAI 2022
Lieu de la manifestation :
Sant Cugat, Esp
Date de la manifestation :
30-08-2022 => 02-09-2022
Manifestation à portée :
International
Titre de l'ouvrage principal :
Modeling Decisions for Artificial Intelligence - 19th International Conference, MDAI 2022, Proceedings
Editeur scientifique :
Torra, Vicenç
Maison d'édition :
Springer Science and Business Media Deutschland GmbH
ISBN/EAN :
978-3-03-113447-0
Peer reviewed :
Peer reviewed
Disponible sur ORBilu :
depuis le 01 mars 2024

Statistiques


Nombre de vues
67 (dont 1 Unilu)
Nombre de téléchargements
1 (dont 1 Unilu)

citations Scopus®
 
4
citations Scopus®
sans auto-citations
4
citations OpenAlex
 
2
citations WoS
 
2

Bibliographie


Publications similaires



Contacter ORBilu