Identificar y evitar el sesgo en analítica es uno de los pilares para mantener la ética en el uso de los datos. Conforme el rol de la Inteligencia Artificial (IA) crece en las organizaciones, a veces con cálculos poco neutrales, también crece la urgencia de adelantarse a estos desafíos. Compañías como IBM y Microsoft, por ejemplo, ya han sumado roles cuya función es garantizar que la ética, el análisis y la IA vayan de la mano.
Es que, si bien muchos aspectos respecto a la ética de la IA son sutiles y discutibles -como determinar el límite de cuándo el monitoreo de información es útil y cuándo es invasivo- gran parte de la reflexión en torno al sesgo no ha cambiado. Estas reflexiones todavía se dan porque suele utilizarse un modelo estadístico que en ocasiones discrimina por edad, raza o sexo, lo que ha llevado en varios países del mundo a legislar y regular para evitar políticas como tazas inapropiadas de interés a un determinado grupo o prácticas injustas en el rubro inmobiliario.
Esto sigue siendo un problema porque las organizaciones usan técnicas de IA como el “Auto ML – Automated Machine Learning” o Aprendizaje automático automatizado, que generalmente cuentan con un hermetismo que dificulta saber si los datos considerados en el análisis están siendo o no evaluados.
¿Qué se puede hacer al respecto? Afortunadamente se pueden aplicar sencillas técnicas para no caer en la trampa del sesgo.
- Enmascaramiento de datos sensibles
Una efectiva manera de asegurar que no se creen algoritmos basados en elementos como edad, raza o sexo, es quitar o reemplazar los datos previo a su uso. Pero ¿Cómo hacerlo? Lo primero es etiquetar la información sensible mediante políticas de enmascaramiento, aunque es un proceso complejo que demanda una madura estructura de gobernanza de datos. También es importante seleccionar qué datos son necesarios y cuáles no, por ejemplo, los científicos de datos pueden decir que necesitan datos como el nombre y una dirección para realizar un geo análisis, cuando puede que baste con el código postal.
Habiendo dicho eso, en varios modelos puede ser perfectamente aceptable ocupar información protegida. Tal vez las preferencias de hombres y mujeres sean distintas en cuanto a películas o al ir de compras y en su mayoría estarían de acuerdo en que el uso de datos sensibles no es negativo. Sin embargo, cuando esto entra en el terreno de, por ejemplo, las hipotecas, puede transformarse en un problema.
- Aplicar un criterio al escoger la información
El sesgo no está en los datos, sino en cómo los escogemos para el análisis. Sin embargo, en muchos casos de omisión, se seleccionan datos con el fin de reforzar un argumento en vez de obtener una vista global. Cuando te embarcas en un problema u oportunidad de análisis de datos, debes considerar los datos disponibles de forma cuidadosa y amplia, escoger una red grande con fuentes potencialmente no convencionales y entender la información.
No es que los datos vengan con sesgo, solo reflejan un tiempo y lugar en específico. Lo que va a generar el sesgo es la incapacidad de comprender el contexto.
- Exigir un relato más rico en información
A mayor simpleza de una descripción analítica, más débil será el respaldo y menos útil será el análisis. En consecuencia, debes hacer preguntas. Aborda la causa de raíz y asegúrate de que el modelo contenga múltiples características. Consulta sobre las excepciones donde el análisis no aplica. Parecerá sentido común, pero es muy efectivo para identificar patrones y sesgos.
Si el análisis presentado no necesita aclarar estas dudas, entonces significa que ha sido desarrollado a conciencia y sin sesgo.
- Revisar las características
Las técnicas modernas de Machine Learning normalmente crearán algoritmos que dejan numerosas características a su paso. Debes cerciorarte de revisar las primordiales para el modelo; aunque tus conocimientos matemáticos o tecnológicos no sean avanzados, debes ser capaz de entender la información clave que contribuye al resultado. Una vez que estas características se vuelven evidentes, es importante revisarlas para ver si es éticamente posible ocuparlas para el propósito que necesitas. En este caso, consultar la visión de un tercero ayuda.
El ser humano incorpora su experiencia y personalidad en todo lo que observa y realiza, por lo que aplicar el sesgo es inherente a nosotros y por tanto, no es condenable. No obstante, sí debemos estar consciente de ello y ser muy cuidadosos de construir modelos que no evidencien estos prejuicios.
Fuente: www.qlik.com
La buena noticia es que cada vez son más las personas y organizaciones que exigen y están llevando la Inteligencia Artificial hacia formas más éticas y transparentes, por lo que sí es posible evolucionar en este aspecto.