Inteligencia Artificial confiable: bias in, bias out

Publicado el: , por :

La Inteligencia Artificial es hoy muy sofisticada, compleja y puede llegar a ser muy certera. Pero ¿podemos confiar en ella?

Inteligencia Artificial es un término ya ampliamente aceptado y utilizado en nuestra sociedad tecnológica: en empresas grandes y pequeñas, en el mundo de la investigación y aplicado a prácticamente todos los campos y áreas en los que se realiza investigación y desarrollo.

La Inteligencia Artificial consiste en copiar y formalizar cualidades y características que realizamos con la inteligencia humana, para aplicarlas de manera automatizada a la resolución y optimización de problemas.

Una de las cualidades más interesantes que hemos copiado del cerebro es la capacidad de aprender, lo que se denomina aprendizaje automático. El ordenador, ya desde hace décadas, puede procesar unos datos (que se llaman de entrenamiento, porque se utilizan para que aprenda de ellos) y posteriormente enfrentarse a otros datos nuevos que, aun siendo un poco diferentes, pueden ser reconocidos poniendo en práctica lo que ha aprendido (que no memorizado).

Por ejemplo, se puede aprender a partir de muchas imágenes de lindos gatitos (entre otras de otros animales) y posteriormente ser capaz de reconocer una imagen de otro lindo gatito no visto anteriormente.

Las empresas y centros de investigación llevan utilizando esta tecnología varias décadas con el fin de resolver problemas complejos que requieren aprender de los datos existentes y posteriormente aplicar el algoritmo que ha aprendido de ellos a nuevos casos y escenarios complejos y desconocidos.

La precisión con la que consiguen acertar en su predicción ha ido en aumento y los tipos de algoritmos utilizados para aprender se han ido sofisticando cada vez más. Como resultado, en ocasiones se realizan proyectos faraónicos de creación de «predictores» para anticipar con una fiabilidad muy alta lo que puede suceder con un cliente en una compañía, con un diagnóstico en salud, con un incidente en industria o con un suceso en la sociedad. La gran confianza en estos algoritmos está conduciendo a dejar en sus manos decisiones incluso en el ámbito penal o de contratación profesional.

Sin embargo, desde hace mucho tiempo los expertos en inteligencia artificial y aprendizaje automático saben bien que, si los datos que utiliza el algoritmo para aprender son incorrectos, la predicción que realizará el algoritmo también lo será en cierto modo. Esto es lo que informalmente se conoce como “trash in, trash out” (entra basura, sale basura).

El gran problema es que no en todos los casos los datos son claramente incorrectos o deficientes. Hay numerosas técnicas para tratar esos datos, limpiarlos, corregirlos y completarlos, incluso aun con incógnitas en ellos. En muchas ocasiones, los datos aparentemente son correctos, pero incluyen una desproporción o desequilibrio en su cantidad o casuística que hace que no sean del todo completos. Esto se conoce como sesgo (bias en inglés) y podemos imaginarlo como aprender sólo de una parte específica y homogénea de la información.

Estos sesgos se han producido en numerosas ocasiones y en proyectos importantes y con gran repercusión, como la atribución de riesgo de delincuencia asociada a unas razas concretas (en las que el algoritmo aprendió de datos en los que mayoritariamente los datos de delincuentes eran de dicha raza, pero no tenía prácticamente casos de los que aprender de no delincuentes), o bien en la contratación de perfiles de un género específico ante otro (e igualmente motivado por no disponer de suficiente información en los datos de entrenamiento de uno de los géneros para poder tomar una decisión ecuánime).

De ahí que posteriormente se acuñara también la frase informal «bias in, bias out«, esto es: entra sesgo, sale sesgo. Lo que viene a decir que, si los datos que utilizamos para aprender están sesgados, nuestra predicción o atribución lo estará también.

Al margen de esta situación no intencionada, más peligroso es que exista además la posibilidad de que se pueda realizar una modificación malintencionada de los datos de entrada (lo que se denomina envenenamiento de datos) o bien del ámbito de aplicación para modificar la predicción que realiza el algoritmo a favor de la persona que lo ha realizado. Como si de un hacker se tratara. 

Este riesgo disparó alarmas entre la comunidad científica e hizo replantearse la confiabilidad en la inteligencia artificial, no con el objetivo de perder la fe en ella, sino todo lo contrario: generar un marco formal en el que consigamos que sí sea confiable. Esta preocupación desembocó en el término ya acuñado en Europa y con un seguimiento actual muy enfocado, denominado: Inteligencia Artificial Fiable (Trustworthy IA).

Este marco se sustenta en tres pilares fundamentales que son conseguir que la IA sea lícita (y cumpla todas las leyes y regulaciones existentes), que sea ética (asegurando los principios de equidad y justicia básicos) y que sea robusta (tanto desde un punto de vista técnico como social).

Para conseguir estos objetivos, se han puesto ya en marcha una serie de requisitos que deben ser revisados, evaluados y asegurados en nuestros sistemas inteligentes para cumplir con esta confiabilidad. Se han establecido los siguientes siete requisitos a nivel europeo:

  1. Acción y supervisión humanas: incluidos los derechos fundamentales, la acción y la supervisión humanas.
  2. Solidez técnica y seguridad: incluida la capacidad de resistencia a los ataques y la seguridad, un plan de repliegue y la seguridad general, precisión, fiabilidad y reproducibilidad.
  3. Gestión de la privacidad y de los datos: incluido el respeto de la privacidad, la calidad y la integridad de los datos, así como el acceso a estos.
  4. Transparencia: incluidas la trazabilidad, la explicabilidad y la comunicación.
  5. Diversidad, no discriminación y equidad: incluida la ausencia de sesgos injustos, la accesibilidad y el diseño universal, así como la participación de las partes interesadas.
  6. Bienestar social y ambiental: incluida la sostenibilidad y el respeto del medio ambiente, el impacto social, la sociedad y la democracia.
  7. Rendición de cuentas: incluidas la auditabilidad, la minimización de efectos negativos y la notificación de estos, la búsqueda de equilibrios y las compensaciones.

Ya no es suficiente con tratar y limpiar los datos para aplicar inteligencia artificial, ni con elegir el mejor algoritmo posible para realizar la mejor predicción. Ahora es necesario, por fin, que nuestros sistemas inteligentes sean confiables.

Autor: Alejandro Echeverría Rey, Investigador Principal en Inteligencia Artificial/Aprendizaje Automático y Ciberseguridad, Funditec.