OpenAlex · Aktualisierung stündlich · Letzte Aktualisierung: 12.05.2026, 19:57

Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.

PreCurious: How Innocent Pre-Trained Language Models Turn into Privacy Traps

2024·9 ZitationenOpen Access
Volltext beim Verlag öffnen

9

Zitationen

4

Autoren

2024

Jahr

Abstract

. Thus, PreCurious raises warnings for users on the potential risks of downloading pre-trained models from unknown sources, relying solely on tutorials or common-sense defenses, and releasing sanitized datasets even after perfect scrubbing.

Ähnliche Arbeiten

Autoren

Institutionen

Themen

Privacy-Preserving Technologies in DataAdversarial Robustness in Machine LearningArtificial Intelligence in Healthcare and Education
Volltext beim Verlag öffnen