In the ever-evolving digital landscape, data, spanning tabular, time series, text, and visual formats, emerges as a pivotal influencer of industries and decision-making systems. Simultaneously, the escalating volume of data emphasizes the necessity for advanced data analysis systems, particularly Artificial Intelligence (AI) and machine learning (ML), as strategic imperatives. The increasing complexity of machine learning algorithms accelerates a parallel surge in demand for transparent and interpretable models. The thesis initiates with a comprehensive exploration of Explainable Artificial Intelligence (XAI), encompassing methods from model-specific to model-agnostic approaches. This involves an in-depth examination of techniques such as feature importance analysis, Local Interpretable Model-agnostic Explanations (LIME), and SHapley Additive exPlanations (SHAP), showcasing the versatility inherent in interpretability methodologies. As an initial step, we apply these interpretability approaches to extract pivotal features in tabular data. This holistic approach aims to unveil the intricate landscape of XAI, contributing to a deep understanding of transparent and interpretable models in data analysis. While interpretability methods in artificial intelligence enhance understanding, they often fall short in elucidating cause-and-effect relationships among crucial data features. This limitation becomes particularly evident in sensitive decision centers like healthcare, where understanding causal links is paramount. In light of this, in addition to employing interpretability methods, we explore causal inference in specific instances, aiming to discern a potential relationship between XAI and causal inference. Another critical data type with applications from medical diagnostics to financial forecasting is time series data. Deep neural networks have emerged as powerful tools in this area, leveraging their capacity to autonomously discern intricate patterns. However, their reliance on distributed hierarchical representations poses challenges in comprehending the rationale behind specific decisions on individual test cases. Conversely, employing interpretable hierarchical models like decision trees facilitates a more straightforward understanding of the knowledge acquired by the neural network. Another goal of this thesis is to introduce a decision tree that mirrors the input-output function discovered by the neural network but in an interpretable manner,facilitating a transparent explanation of individual decisions.
Nel panorama digitale in continua evoluzione, i dati, che spaziano in formati tabulari, temporali, testuali e visivi, emergono come elementi fondamentali per l'industria e i sistemi decisionali. Allo stesso tempo, l'aumento esponenziale del volume di dati sottolinea la necessità di sistemi avanzati di analisi dei dati, in particolare quelli basati su Intelligenza Artificiale (IA) e apprendimento automatico (ML), come imperativi strategici. La crescente complessità degli algoritmi di apprendimento automatico accelera la domanda parallela di modelli trasparenti e interpretabili. La tesi inizia con un'esplorazione approfondita dell'Intelligenza Artificiale Esplicabile (XAI), che include metodi specifici per modello e indipendenti dal modello. Questo comporta un'analisi dettagliata di tecniche come l'analisi dell'importanza delle caratteristiche, Local Interpretable Model-agnostic Explanations (LIME) e SHapley Additive exPlanations (SHAP), dimostrando la versatilità insita nelle metodologie di interpretabilità. Come primo passo, applichiamo questi approcci interpretativi per estrarre caratteristiche fondamentali dai dati tabulari. Questo approccio olistico mira a rivelare il panorama complesso della XAI, contribuendo a una comprensione profonda dei modelli trasparenti e interpretabili nell'analisi dei dati. Sebbene i metodi di interpretabilità nell'intelligenza artificiale migliorino la comprensione, spesso non riescono a chiarire le relazioni di causa-effetto tra le caratteristiche principali dei dati. Questa limitazione diventa particolarmente evidente in contesti decisionali sensibili come quello sanitario, dove la comprensione dei legami causali è fondamentale. In questo contesto, oltre a utilizzare metodi di interpretabilità, esploriamo l'inferenza causale in casi specifici, con l'obiettivo di discernere una possibile relazione tra XAI e inferenza causale. Un altro tipo di dato critico, con applicazioni che vanno dalla diagnostica medica alla previsione finanziaria, è quello delle serie temporali. Le reti neurali profonde si sono dimostrate strumenti potenti in questo ambito, sfruttando la loro capacità di individuare autonomamente schemi complessi. Tuttavia, il loro affidamento su rappresentazioni gerarchiche distribuite pone sfide nella comprensione della logica dietro decisioni specifiche su singoli casi di test. Al contrario, l'uso di modelli gerarchici interpretabili come gli alberi decisionali facilita una comprensione più diretta della conoscenza acquisita dalla rete neurale. Un altro obiettivo di questa tesi è introdurre un albero decisionale che rifletta la funzione di input-output scoperta dalla rete neurale, ma in modo interpretabile, facilitando una spiegazione trasparente delle decisioni individuali.
The Role of Explainable Artificial Intelligence in Data Science [Il Ruolo dell'Intelligenza Artificiale Esplicabile nella Scienza dei Dati] / Gholizade Atani, Yaser. - (2025 Feb 10).
The Role of Explainable Artificial Intelligence in Data Science [Il Ruolo dell'Intelligenza Artificiale Esplicabile nella Scienza dei Dati]
GHOLIZADE ATANI, YASER
2025-02-10
Abstract
In the ever-evolving digital landscape, data, spanning tabular, time series, text, and visual formats, emerges as a pivotal influencer of industries and decision-making systems. Simultaneously, the escalating volume of data emphasizes the necessity for advanced data analysis systems, particularly Artificial Intelligence (AI) and machine learning (ML), as strategic imperatives. The increasing complexity of machine learning algorithms accelerates a parallel surge in demand for transparent and interpretable models. The thesis initiates with a comprehensive exploration of Explainable Artificial Intelligence (XAI), encompassing methods from model-specific to model-agnostic approaches. This involves an in-depth examination of techniques such as feature importance analysis, Local Interpretable Model-agnostic Explanations (LIME), and SHapley Additive exPlanations (SHAP), showcasing the versatility inherent in interpretability methodologies. As an initial step, we apply these interpretability approaches to extract pivotal features in tabular data. This holistic approach aims to unveil the intricate landscape of XAI, contributing to a deep understanding of transparent and interpretable models in data analysis. While interpretability methods in artificial intelligence enhance understanding, they often fall short in elucidating cause-and-effect relationships among crucial data features. This limitation becomes particularly evident in sensitive decision centers like healthcare, where understanding causal links is paramount. In light of this, in addition to employing interpretability methods, we explore causal inference in specific instances, aiming to discern a potential relationship between XAI and causal inference. Another critical data type with applications from medical diagnostics to financial forecasting is time series data. Deep neural networks have emerged as powerful tools in this area, leveraging their capacity to autonomously discern intricate patterns. However, their reliance on distributed hierarchical representations poses challenges in comprehending the rationale behind specific decisions on individual test cases. Conversely, employing interpretable hierarchical models like decision trees facilitates a more straightforward understanding of the knowledge acquired by the neural network. Another goal of this thesis is to introduce a decision tree that mirrors the input-output function discovered by the neural network but in an interpretable manner,facilitating a transparent explanation of individual decisions.File | Dimensione | Formato | |
---|---|---|---|
Yaser_Gholizade_PhD_Catania.pdf
accesso aperto
Tipologia:
Tesi di dottorato
Licenza:
PUBBLICO - Pubblico con Copyright
Dimensione
3.84 MB
Formato
Adobe PDF
|
3.84 MB | Adobe PDF | Visualizza/Apri |
I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.