Las redes neuronales profundas han sido tomadas en cuenta por su precisi¨®n en una amplia variedad de problemas. Alcanzados los suficientes datos de capacitaci¨®n y la selecci¨®n de una apropiada topolog¨ªa, estos modelos alcanzan y exceden las capacidades humanas en selectos campos de problemas. Sin embargo, resultan ser por naturaleza opacos. Aunque algunas partes de los modelos se pueden reutilizar mediante el aprendizaje por transferencia, pocas veces somos capaces de atribuir alg¨²n significado comprensible para los humanos a estos elementos. Por el contrario, un modelo explicativo es aquel que nos permite entender c¨®mo se tom¨® cierta decisi¨®n. Por ejemplo, un ¨¢rbol de decisi¨®n produce una cadena de inferencia que describe el proceso de clasificaci¨®n. La explicabilidad se vuelve cr¨ªtica en ciertas industrias reguladas o cuando nos preocupa el impacto ¨¦tico de una decisi¨®n. A medida que estos modelos se adoptan m¨¢s ampliamente en sistemas cr¨ªticos del negocio es importante tomar en cuenta la explicabilidad como un criterio relevante al seleccionar un modelo. A pesar de su poder, las redes neuronales podr¨ªan no ser una elecci¨®n acertada cuando existen estrictos requerimientos de explicabilidad.

