Article (Périodiques scientifiques)
Fooling machine learning models: a novel out-of-distribution attack through generative adversarial networks
Hu, Hailong; PANG, Jun
2025In Applied Intelligence, 55 (5)
Peer reviewed vérifié par ORBi
 

Documents


Texte intégral
s10489-024-05974-1.pdf
Postprint Éditeur (1.23 MB)
Télécharger

Tous les documents dans ORBilu sont protégés par une licence d'utilisation.

Envoyer vers



Détails



Mots-clés :
Out-of-distribution attacks; Out-of-distribution detection; Generative adversarial networks; Robustness in machine learning
Disciplines :
Sciences informatiques
Auteur, co-auteur :
Hu, Hailong ;  Chongqing Technology and Business University
PANG, Jun  ;  University of Luxembourg
Co-auteurs externes :
yes
Langue du document :
Anglais
Titre :
Fooling machine learning models: a novel out-of-distribution attack through generative adversarial networks
Date de publication/diffusion :
2025
Titre du périodique :
Applied Intelligence
ISSN :
0924-669X
eISSN :
1573-7497
Maison d'édition :
Springer Science and Business Media LLC
Volume/Tome :
55
Fascicule/Saison :
5
Peer reviewed :
Peer reviewed vérifié par ORBi
Organisme subsidiant :
Fonds National de la Recherche Luxembourg
Disponible sur ORBilu :
depuis le 11 mars 2025

Statistiques


Nombre de vues
61 (dont 0 Unilu)
Nombre de téléchargements
33 (dont 0 Unilu)

citations Scopus®
 
0
citations Scopus®
sans auto-citations
0
OpenCitations
 
0
citations OpenAlex
 
0
citations WoS
 
0

Bibliographie


Publications similaires



Contacter ORBilu