Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.
When Generative AI Prompts Bite Back: Investigating Different Types of Prompt Injection Attacks on Large Language Models (LLMs) and Their Prevention Methods
2025·0 ZitationenOpen Access
Volltext beim Verlag öffnen0
Zitationen
3
Autoren
2025
Jahr
Abstract
Large Language Models (LLMs) are designed to exhibit a high degree of flexibility, enabling them to adapt to a wide range of tasks expressed in natural language. LLMs predominantly operate through a prompt-based paradigm, wherein all interactions are
Ähnliche Arbeiten
Autoren
Institutionen
Themen
Topic ModelingArtificial Intelligence in Healthcare and EducationAdversarial Robustness in Machine Learning