Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.
Inteligencia artificial en diagnóstico displasia cortical focal: desentrañando la caja negra del diagnóstico en resonancia magnética
0
Zitationen
2
Autoren
2026
Jahr
Abstract
La displasia cortical focal (FCD) es una de las principales causas de epilepsia farmacorresistente. Su detección en resonancia magnética (RM) continúa siendo un reto debido a lo sutil de los hallazgos. La inteligencia artificial (IA) ha emergido como herramienta complementaria al neurorradiólogo y equipo de epilepsia, capaz de identificar patrones morfológicos y de señal imperceptibles al ojo humano. Revisar, desde la perspectiva del radiólogo, qué “ve” la inteligencia artificial en la displasia cortical focal y cómo cuantifica hallazgos en RM estructural, describiendo parámetros morfométricos, herramientas de interpretabilidad, rendimiento, limitaciones y aplicaciones clínicas en protocolos de epilepsia y planificación quirúrgica. Se revisaron publicaciones recientes, bases de datos abiertas y proyectos multicéntricos (MELD, multicenter DL validation, datasets pediátricos) enfocados en la detección de FCD mediante algoritmos de machine learning y deep learning aplicados a RM estructural (T1, FLAIR). Se describieron las principales métricas de rendimiento, técnicas de interpretabilidad y características morfológicas utilizadas. Los algoritmos de IA alcanzan una sensibilidad comparable a la de neurorradiólogos expertos (73-81%), con mayor rendimiento cuando se combinan ambas evaluaciones (hasta 87%). Los modelos identifican hallazgos clásicos (engrosamiento cortical, borramiento de la unión SG-SB, hiperintensidad FLAIR) y cuantifican alteraciones morfométricas (espesor cortical, curvaturas H y K). Herramientas de interpretabilidad como Grad-CAM y mapas de relevancia permiten “abrir la caja negra” de la predicción. Persisten falsos positivos, especialmente en cohortes multicéntricas. La IA complementa el análisis visual de la RM, convirtiéndolo en un proceso semicuantitativo y reproducible. Su integración en protocolos de epilepsia podría mejorar la detección de FCD, optimizar la planificación quirúrgica y contribuir al diagnóstico integrado propuesto por la ILAE 2022. Focal cortical dysplasia (FCD) is one of the main causes of drug-resistant epilepsy. Its detection on magnetic resonance imaging (MRI) remains challenging due to subtle structural abnormalities. Artificial intelligence (AI) has emerged as a complementary tool for neuroradiologists, capable of identifying morphological and signal patterns imperceptible to the human eye. To review, from a radiologist's perspective, what artificial intelligence “sees” in focal cortical dysplasia and how it quantifies findings on structural MRI, describing morphometric parameters, interpretability tools, performance, limitations, and clinical applications in epilepsy imaging protocols and surgical planning. We reviewed recent publications, open datasets, and multicenter projects (MELD, multicenter DL validation, pediatric cohorts) focused on FCD detection using machine learning and deep learning algorithms applied to structural MRI (T1, FLAIR). We described the main performance metrics, interpretability techniques, and morphological features explored. AI algorithms achieve a sensitivity comparable to that of expert neuroradiologists (73-81%), with higher performance when both evaluations are combined (up to 87%). Models identify classical findings (cortical thickening, blurring of the gray-white matter junction, FLAIR hyperintensity) and quantify morphometric alterations (cortical thickness, H and K curvatures). Interpretability tools such as Grad-CAM and saliency maps help to “open the black box” of prediction. False positives remain, especially in multicenter cohorts. AI complements visual MRI analysis, transforming it into a semiquantitative and reproducible process. Its integration into epilepsy protocols could improve FCD detection, optimize surgical planning, and contribute to the integrated diagnosis proposed by the ILAE 2022.
Ähnliche Arbeiten
Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI
2019 · 8.418 Zit.
Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead
2019 · 8.288 Zit.
High-performance medicine: the convergence of human and artificial intelligence
2018 · 7.726 Zit.
Proceedings of the 19th International Joint Conference on Artificial Intelligence
2005 · 5.781 Zit.
Peeking Inside the Black-Box: A Survey on Explainable Artificial Intelligence (XAI)
2018 · 5.516 Zit.