Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.
Explainability can foster trust in artificial intelligence in geoscience
2025·25 Zitationen·Nature GeoscienceOpen Access
Volltext beim Verlag öffnen25
Zitationen
14
Autoren
2025
Jahr
Abstract
Für dieses Paper ist kein Abstract in der Datenbank hinterlegt.
Abstract beim Verlag einsehenÄhnliche Arbeiten
Grad-CAM: Visual Explanations from Deep Networks via Gradient-Based Localization
2017 · 20.604 Zit.
Generative Adversarial Nets
2023 · 19.893 Zit.
Visualizing and Understanding Convolutional Networks
2014 · 15.303 Zit.
"Why Should I Trust You?"
2016 · 14.432 Zit.
On a Method to Measure Supervised Multiclass Model’s Interpretability: Application to Degradation Diagnosis (Short Paper)
2024 · 13.167 Zit.
Autoren
Institutionen
- Fraunhofer Institute for Telecommunications, Heinrich Hertz Institute(DE)
- Parc Científic de la Universitat de València(ES)
- Joint Research Centre(IT)
- Goddard Space Flight Center(US)
- University of Maryland, Baltimore County(US)
- University of Padua(IT)
- University of Cambridge(GB)
- Systemic Risk Centre(GB)
- University College London(GB)
- Berlin Institute for the Foundations of Learning and Data
- Technische Universität Berlin(DE)
- LinkedIn (United States)(US)
Themen
Explainable Artificial Intelligence (XAI)Scientific Computing and Data ManagementArtificial Intelligence in Healthcare and Education