La Inteligencia Artificial eXplicable (IAX) es un área emergente que busca mejorar la transparencia de los modelos de aprendizaje automático, abordando desafíos como la explicabilidad, la robustez y la gestión de sesgos. Este campo es esencial para proporcionar explicaciones comprensibles sobre como los modelos toman decisiones, lo cual es crucial tanto en aplicaciones críticas como en el cumplimiento de normativas de transparencia.
Este trabajo se basa en una metodología propuesta para validación de explicaciones, pero enfocado en evaluar específicamente la relación entre la precisión de un modelo y la robustez de las explicaciones generadas mediante técnicas de IAX post-hoc, como SHAP y LIME, que son agnósticas al modelo. A través de un enfoque experimental y observacional, se estudia como los cambios en la precisión del modelo afectan a la estabilidad y fidelidad de las explicaciones proporcionadas. Se emplean tres modelos de aprendizaje automático aplicados a problemas de clasificación binaria, y se introduce ruido controlado en los datos para simular diferentes niveles de precisión, evaluando cómo estas alteraciones impactan las explicaciones generadas. La metodología permite la validación sistemática de explicaciones de modelos complejos.
ABSTRACT
eXplainable Artificial Intelligence (XAI) is an emerging field that aims to improve the transparency of machine learning models by addressing challenges such as explainability, robustness and bias management. This field is essential for providing understandable explanations of how models make decisions, which is crucial in both critical applications and compliance with transparency regulations.
This work is based on a proposed methodology for explanation validation but focuses on specifically evaluating the relationship between the accuracy of a model and the robustness of explanations generated using post-hoc IAX techniques, such as SHAP and LIME, which are model-agnostic. Through an experimental and observational approach, we study how changes in model accuracy affect the stability and fidelity of the explanations provided. Three machine learning models applied to binary classification problems are used, and controlled noise is introduced into the data to simulate different levels of accuracy, evaluating how these alterations impact the explanations generated. The methodology allows the systematic validation of complex model explanations.
La Inteligencia Artificial eXplicable (IAX) es un área emergente que busca mejorar la transparencia de los modelos de aprendizaje automático, abordando desafíos como la explicabilidad, la robustez y la gestión de sesgos. Este campo es esencial para proporcionar explicaciones comprensibles sobre como los modelos toman decisiones, lo cual es crucial tanto en aplicaciones críticas como en el cumplimiento de normativas de transparencia.
Este trabajo se basa en una metodología propuesta para validación de explicaciones, pero enfocado en evaluar específicamente la relación entre la precisión de un modelo y la robustez de las explicaciones generadas mediante técnicas de IAX post-hoc, como SHAP y LIME, que son agnósticas al modelo. A través de un enfoque experimental y observacional, se estudia como los cambios en la precisión del modelo afectan a la estabilidad y fidelidad de las explicaciones proporcionadas. Se emplean tres modelos de aprendizaje automático aplicados a problemas de clasificación binaria, y se introduce ruido controlado en los datos para simular diferentes niveles de precisión, evaluando cómo estas alteraciones impactan las explicaciones generadas. La metodología permite la validación sistemática de explicaciones de modelos complejos.
ABSTRACT
eXplainable Artificial Intelligence (XAI) is an emerging field that aims to improve the transparency of machine learning models by addressing challenges such as explainability, robustness and bias management. This field is essential for providing understandable explanations of how models make decisions, which is crucial in both critical applications and compliance with transparency regulations.
This work is based on a proposed methodology for explanation validation but focuses on specifically evaluating the relationship between the accuracy of a model and the robustness of explanations generated using post-hoc IAX techniques, such as SHAP and LIME, which are model-agnostic. Through an experimental and observational approach, we study how changes in model accuracy affect the stability and fidelity of the explanations provided. Three machine learning models applied to binary classification problems are used, and controlled noise is introduced into the data to simulate different levels of accuracy, evaluating how these alterations impact the explanations generated. The methodology allows the systematic validation of complex model explanations. Read More


