La Habana, Cuba. – Los sistemas inteligentes forman cada vez más parte de la vida cotidiana, son útiles en distintas áreas y ayudan a tomar decisiones. Por eso, se habla de la necesidad de desarrollar una Inteligencia Artificial ética, explicable, confiable y transparente. Muchas plataformas informáticas tienen un sistema de recomendación. Por ejemplo, YouTube le recomienda nuevos vídeos, Instagram le propone nuevos perfiles para seguir y Spotify le sugiere nuevas canciones. Todo eso es gracias a la inteligencia artificial.

Estos algoritmos de inteligencia artificial usan metadatos y estudian patrones de comportamiento de los usuarios. Pero, ¿cómo funcionan estas recomendaciones? En realidad, es bastante complicado saber cómo funciona esta inteligencia artificial, la mayoría de las empresas usan procesos y algoritmos internos que nunca llegan a publicarse, convirtiéndose en activos intangibles muy importantes para esas compañías. Es bastante probable que el usuario de a pie no preste atención al funcionamiento de la inteligencia artificial. Aun así, hay muchos algoritmos que toman decisiones en el día a día de los que no se es consciente. Por esa razón, es importante entender cómo funciona la IA para entender las decisiones que toman, y aún más importante, las razones por las que las toman.

Los algoritmos tradicionales dependen de quien determina cómo interactúan las distintas variables y, por tanto, toman decisiones sobre las variables que devuelven un resultado basado en la programación que ha hecho una persona. Cuando se diseña un algoritmo de esa manera, es posible que el algoritmo esté sesgado, simplemente por fallos humanos. Para solucionar ese problema entran en juego los modelos de aprendizaje automático. En esos modelos se obtienen predicciones y decisiones que provienen de procesos de aprendizaje que requieren escasa intervención humana, reduciendo drásticamente la probabilidad de un sesgo proveniente de un programador. Eso tampoco está exento de problemas, ya que el algoritmo puede entrenarse con un conjunto de datos que no represente con fiabilidad a la población para la que se ha diseñado. ¿Cómo se pueden solucionar esos problemas? Una de las posibles soluciones es usar la denominada IA explicable o XAI, cuyas siglas en inglés significan Explainable Artificial Intelligence.

Que una inteligencia artificial sea explicable significa que se comprende cómo y por qué el algoritmo toma las decisiones o realiza las predicciones y que se tiene la capacidad de justificar los resultados que produce. Contrasta con el concepto de la “caja negra” en aprendizaje automático, donde incluso sus diseñadores no pueden explicar por qué la IA llegó a una decisión concreta. XAI es una implementación del derecho social a la explicación. El reto técnico de explicar las decisiones de IA es a veces conocido como el problema de interpretabilidad. Otra consideración es info-besity (sobrecarga de información), así, la transparencia total no puede ser siempre posible. Aun así, la simplificación a costo de engañar usuarios para aumentar la confianza o esconder los atributos indeseables del sistema tendrían que ser evitados permitiendo un equilibrio entre la interpretabilidad y la integridad de una explicación.

Los sistemas de IA optimizan el comportamiento para satisfacer un sistema de objetivos matemáticamente especificado y que son elegido por los diseñadores del sistema, como el comando “maximizar la precisión de evaluar qué tan positivas son las críticas de películas en el conjunto de datos de prueba”. La IA puede aprender reglas generales útiles del conjunto de pruebas, como “las revisiones que contienen la palabra ‘horrible'” probablemente sean negativas “. Sin embargo, también puede aprender reglas inapropiadas, como “las revisiones que contienen ‘Daniel Day-Lewis’ suelen ser positivas”; tales reglas pueden ser indeseables si se considera que es probable que no se generalicen fuera del conjunto de pruebas, o si las personas consideran que la regla es “trampa” o “injusta”. Un humano puede auditar las reglas en un XAI para tener una idea de la probabilidad de que el sistema se generalice a datos futuros del mundo real fuera del conjunto de pruebas.

La cooperación entre agentes, en este caso algoritmos y humanos, depende de la confianza. Si los humanos van a aceptar prescripciones algorítmicas, necesitan confiar en ellas. Los sistemas de inteligencia artificial a veces aprenden trucos indeseables que hacen un trabajo óptimo para satisfacer objetivos preprogramados explícitos en los datos de entrenamiento, pero que no reflejan los deseos de los diseñadores. Por ejemplo, un sistema de 2017 encargado con el reconocimiento de imágenes aprendió a “hacer trampas” al buscar una etiqueta de copyright que estaba asociada con imágenes de caballos, en lugar de aprender a identificar si un caballo fue realmente fotografiado. En otro sistema de 2017, una IA de aprendizaje supervisado encargada de captar los elementos en un mundo virtual aprendió a “hacer trampas” al colocar su manipulador entre el objeto y el espectador de tal manera que parecía falsamente estar captando el objeto.

Durante las décadas de 1970 y 1990, sistemas de razonamiento simbólico, como MYCIN, GUIDON, SOPHIE, y PROTOS fueron explorados para representar, razonar y explicar su razonamiento con fines de diagnóstico, instrucción o aprendizaje automático (aprendizaje basado en explicaciones). MYCIN, desarrollado a principios de la década de 1970 como un prototipo de investigación para diagnosticar infecciones bacterianas del torrente sanguíneo, podría explicar cuál de sus reglas codificadas a mano contribuyó a un diagnóstico en un caso específico. La investigación en sistemas inteligentes de tutoría desarrolló sistemas como SOPHIE que podrían actuar como un “experto articulado”, explicando la estrategia de resolución de problemas a un nivel que el estudiante pudiera entender, para que supieran qué acción tomar a continuación. Por ejemplo, SOPHIE podría explicar el razonamiento cualitativo detrás de su solución de problemas electrónicos, aunque finalmente se basó en el simulador de circuito SPICE.

Desde la década de 1980 hasta principios de la década de 1990, se desarrollaron sistemas de mantenimiento de la verdad (TMS) para ampliar las capacidades de los sistemas de inferencia basados en el razonamiento causal, basados en reglas y lógicos. Un TMS actúa para rastrear explícitamente líneas alternativas de razonamiento, justificaciones de conclusiones y líneas de razonamiento que conducen a contradicciones, permitiendo que el razonamiento futuro evite esos callejones sin salida. Para proporcionar una explicación, escrutan el razonamiento desde conclusiones hasta suposiciones a través de operaciones de reglas o inferencias lógicas, permitiendo que se generen explicaciones a partir de las huellas de razonamiento. Como ejemplo, considere un solucionador de problemas basado en reglas con solo unas pocas reglas sobre Sócrates que concluye que ha muerto por veneno: Al rastrear la estructura de dependencia, el solucionador de problemas puede construir la siguiente explicación: “Sócrates murió porque era mortal y bebió veneno, y todos los mortales mueren cuando beben veneno. Sócrates fue mortal porque era un hombre y todos los hombres son mortales”. Sócrates bebió veneno porque tenía creencias disidentes, el gobierno era conservador y los que tenían creencias disidentes conservadoras bajo gobiernos conservadores deben beber veneno “.

En la década de 1990, los investigadores también comenzaron a estudiar si es posible extraer de manera significativa las reglas no codificadas a mano generadas por redes neuronales opacas entrenadas. En el 2010, las preocupaciones públicas sobre el sesgo racial y de otro tipo en el uso de la IA para las decisiones de sentencias penales y los hallazgos de solvencia crediticia pueden haber llevado a una mayor demanda de inteligencia artificial transparente. Como resultado, muchos académicos y organizaciones Las modernas técnicas complejas de IA, como el aprendizaje profundo y los algoritmos genéticos, son naturalmente opacos. Para abordar ese problema, se han desarrollado muchos métodos nuevos para hacer que los nuevos modelos sean más explicables e interpretables.

Existen dos tipos de explicaciones: las globales y las locales. Las primeras sirven para describir el comportamiento del algoritmo en general. se puede ver en el caso de una plataforma de streaming como Netflix o Prime Video. Su motor de recomendaciones no propondrá una película excesivamente larga justo antes de la hora de dormir. En el caso de un préstamo bancario, el algoritmo supondrá que un cliente con una deuda elevada tendrá dificultades para asumir más compromisos de pago. en el caso de las locales, se usan para explicar el comportamiento del algoritmo para casos más concretos y personalizados. En ese caso se tendrá en cuenta el perfil individual de cada usuario, en el que puede haber variaciones frente a las recomendaciones globales. En ese supuesto el usuario de Netflix puede ser un consumidor nocturno que no tiene problemas en ver una película larga hasta altas horas de la madrugada, o en el caso del banco, que el cliente tenga un trabajo bastante estable y seguro, con lo que no tendría problemas para afrontar la deuda.

Estas cuestiones no solo tienen una arista tecnológica, sino que llegan al campo legal. Por ejemplo, la Unión Europea introdujo un derecho de explicación en el Derecho general de protección de datos (GDPR) como un intento de abordar los posibles problemas derivados de la creciente importancia de los algoritmos. La implementación del control empezó en 2018. Sin embargo, el derecho de explicación en GDPR cubre solo el aspecto local de la interpretabilidad. En los Estados Unidos, las compañías de seguros deben poder explicar sus decisiones sobre las tasas y cobertura.

Bueno, ya sabe que muchas de las decisiones que usted toma o que algún artilugio toma por usted, no son tan inexplicables, tienen un algoritmo que es capaz de responder porque sugirió verde en lugar de azul. Con esto cierro, y ya sabe, si me ve por ahí me saluda.