Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.
PreCurious: How Innocent Pre-Trained Language Models Turn into Privacy Traps
2024·9 ZitationenOpen Access
Volltext beim Verlag öffnen9
Zitationen
4
Autoren
2024
Jahr
Abstract
. Thus, PreCurious raises warnings for users on the potential risks of downloading pre-trained models from unknown sources, relying solely on tutorials or common-sense defenses, and releasing sanitized datasets even after perfect scrubbing.
Ähnliche Arbeiten
k-ANONYMITY: A MODEL FOR PROTECTING PRIVACY
2002 · 8.449 Zit.
Calibrating Noise to Sensitivity in Private Data Analysis
2006 · 6.961 Zit.
Deep Learning with Differential Privacy
2016 · 5.745 Zit.
Federated Machine Learning
2019 · 5.721 Zit.
Communication-Efficient Learning of Deep Networks from Decentralized\n Data
2016 · 5.612 Zit.
Autoren
Institutionen
Themen
Privacy-Preserving Technologies in DataAdversarial Robustness in Machine LearningArtificial Intelligence in Healthcare and Education