¿Qué es la explainable AI (XAI)?
Con cada nuevo avance de la inteligencia artificial y el siempre creciente grado de complejidad que lo acompaña, este campo se vuelve cada vez más complicado y menos accesible. Gracias a las exitosas innovaciones en este campo, especialmente en el aprendizaje automático, la investigación de la inteligencia artificial despierta un inmenso interés. Desarrollarla hasta el punto de que los programas sean capaces de aprender de manera autónoma y encontrar soluciones a problemas difíciles sigue siendo, a pesar de su cada vez mayor complejidad, una de las áreas de investigación más relevantes. Sin embarga, todavía más importante es que las decisiones y resultados de las inteligencias artificiales sean tan comprensibles como sea posible.
Justamente por ello apuesta la explainable artificial intelligence (XAI), ya que los usuarios quieren y deben entender cómo funciona la inteligencia artificial de un programa y saber valorar los resultados obtenidos. De lo contrario, no se da una base que permita confiar realmente en el trabajo de la máquina. La transparencia que ofrece la explainable AI es, por lo tanto, imprescindible para la aceptación de la inteligencia artificial. ¿Qué hay detrás de este planteamiento?
- Crea tu página web en tiempo récord
- Impulsa tu negocio gracias al marketing por IA
- Ahorra tiempo y obtén mejores resultados
¿Qué es la explainable artificial intelligence (XAI)?
Explainable artificial intelligence significa en español “inteligencia artificial explicable”. Se trata de un neologismo que se emplea desde 2004 en la investigación y en los debates sobre el aprendizaje automático (en inglés, machine learning). Sin embargo, a día de hoy, no existe una definición general válida sobre lo que es exactamente la explainable AI. El programa XAI de la DARPA (Agencia de Proyectos de Investigación Avanzados de Defensa estadounidense) define las metas de la inteligencia artificial explicable con los siguientes requisitos:
Deben darse modelos explicables sin tener por ello que renunciar a la gran eficiencia de aprendizaje. Asimismo, debe ser posible que los usuarios posteriores comprendan la generación emergente de colaboradores de inteligencia artificial, que puedan depositar cierto grado de confianza en esta y puedan trabajar con ella y gestionarla de manera eficiente.
Por explainable AI (XAI) se entiende tanto el principio como el modo de funcionamiento y de trabajo de una inteligencia artificial, así como la presentación de los resultados obtenidos de la forma más comprensible posible para el usuario.
¿Qué objetivo tiene la XAI?
La inteligencia artificial ya no es solo cosa de investigadores y científicos, más bien forma parte de nuestra vida diaria. Por eso resulta especialmente importante acercar la modularidad de la inteligencia artificial no únicamente a entrenadores o usuarios directos. El funcionamiento de la inteligencia artificial debería hacerse lo más comprensible posible para los encargados de tomar decisiones, para que así sea posible crear la base de la confianza en esta tecnología.
Existen buenos ejemplos de algunas empresas conocidas: en 2017 el grupo Nvidia publicó en el blog corporativo de su página web un artículo titulado Explaining How a Deep Neural Network Trained with End-to-End Learning Steers a Car. En este artículo, cuatro desarrolladores explican cómo la inteligencia artificial que están creando aprende a conducir de manera autónoma. La empresa describe con transparencia sus resultados de investigación y muestra, con la ayuda de varios ejemplos fáciles de entender, cómo la inteligencia artificial aprende por sí sola.
En el mismo año, Accenture publicó la guía Responsible AI: Why we need Explainable AI, en la que este proveedor de tecnología trata aspectos como la ética y la confianza en la relación con las máquinas, especialmente en el campo de la conducción autónoma.
¿Qué métodos engloba la explainable AI?
Existen diversos métodos y planteamientos para promover la transparencia y comprensión de la inteligencia artificial. En los siguientes apartados, hemos resumido los más importantes:
La Layer-wise Relevance Propagation (LRP, difusión exitosa de significados capa a capa) se describió por primera vez en 2015. Se trata de una técnica para determinar las características de los vectores de entrada que más aportan a los resultados de una red neuronal.
El Counterfactual Method (método contrafactual) describe cómo el input de datos (textos, imágenes, diagramas, etc.) puede alterarse con un fin concreto una vez obtenido un resultado, para después observar hasta qué punto ha supuesto la alteración de dicho resultado.
El Local Interpretable Model-Agnostic Explanations (LIME) es un modelo de explicación con un propósito holístico, que aspira a poder explicar cada clasificador automático y el consiguiente pronóstico derivado de este. De esta forma, deben hacerse comprensibles los datos y los procedimientos para los usuarios no duchos en la materia.
La racionalización es un método que se emplea concretamente con los robots basados en inteligencia artificial. Así, la máquina se diseña de tal forma que ella misma puede explicar sus acciones.
¿Dónde y cuándo se utiliza la explainable artificial intelligence?
La inteligencia artificial ya se aplica en muchos sectores y con cada vez más frecuencia, especialmente en algunas ramas de la industria y los servicios, por lo que la transparencia cobra una importancia suma. También por eso, se apela a la responsabilidad (en inglés se emplea el término accountability).
El foco de atención se centra especialmente en algunas áreas o campos:
- Diseño de antenas
- Operaciones de alta frecuencia (operaciones algorítmicas)
- Diagnóstico médico
- Conducción autónoma (vehículos automotrices)
- Imagen de red neuronal
- Entrenamiento de estrategias militares
Cualquiera que haya utilizado alguna vez el asistente de aparcamiento sabe cómo se pasa del escepticismo y la tensión al volante al asombro total de que algo así pueda funcionar. Por lo general, como usuarios, queremos saber cómo es posible que un coche aparque solo. Por ello, es más que comprensible que justamente en los ámbitos nombrados anteriormente exista un interés especial por la transparencia y la explicación del funcionamiento de la inteligencia artificial.
Explainable AI de Google
También Google ha reconocido la creciente responsabilidad en este ámbito. El gigante destina muchos de sus recursos a la investigación en la inteligencia artificial y la utiliza también para los motores de búsqueda y muchos otros campos. Además, la empresa apuesta fuertemente por crear programas transparentes. Desde 2019, con el módulo de Google Explainable AI pueden crearse modelos de aprendizaje automático integradores e interpretables. El paquete puede utilizarse hasta 12 meses de manera gratuita.
Este paquete de Google ofrece, entre otras cosas, una herramienta llamada What-If, que permite visualizar el comportamiento de un modelo. Las predicciones de esta herramienta pueden adaptarse por completo a las necesidades propias. Con las diferentes demostraciones y la interfaz gráfica, es posible observar de cerca los diferentes modelos de aprendizaje automático sin tener que escribir mucho código. Con este fin, Google ofrece diferentes herramientas preparadas: además de una para estimar la edad o clasificar especies de flores, también hay una función que analiza diversos retratos. Para ello, se subdividen las imágenes dependiendo de si la persona de la foto sonríe o no. El módulo asimismo ofrece diferentes parámetros de rasgos de caras: por ejemplo, pueden seleccionarse las imágenes en función de si la persona lleva barba o flequillo.
Hay otras empresas que aprovechan las posibilidades que ofrece Explainable AI de Google. Por ejemplo, la cadena de televisión alemana Sky utiliza la herramienta What-If para su propia plataforma de inteligencia artificial con el fin de ofrecer explicaciones comprensibles y mejorar el análisis de datos.