Ciencia y Tecnología

El problema del sesgo en Inteligencia Artificial

CIUDAD DE MÉXICO, 19 Nov .- Hoy ya se tienen muchos sistemas de aprendizaje profundo que se usan para tratar de determinar desde qué acciones hay que comprar hasta problemas en los diagnósticos médicos. Ahora hay que valorar las respuestas que nos están dando los sistemas y ver cómo es que llegan a estas decisiones, pues muchas veces los juicios podrían estar sesgados.

En el MIT se ha llegado a la conclusión que muchos sistemas están sesgados y el culpable no es el algoritmo de aprendizaje sino cómo es que se recolectan los datos. “Los científicos de cómputo, a la crítica sobre el sesgo de sus sistemas, dicen rápidamente que para hacerlos menos sesgados basta con pulir sus algoritmos”, dice Irene Chen, una estudiante de doctorado que escribió un artículo con David Sontag y el asociado postdoctoral Fredrik D. Johansson. “Pero los algoritmos son solamente buenos en la medida de los datos que utilizan, y nuestra investigación muestra que puede haber grandes diferencias cuando se usan mejores datos”.

A través del análisis de ejemplos específicos, los investigadores fueron capaces de identificar las causas potenciales para ver las diferencias en la precisión y cuantificación de cada factor individual en el conjunto de datos. Entonces mostraron cómo cambiando la forma de recolectar los datos podría reducir diversos sesgos, manteniendo la capacidad y precisión predictiva. “Vemos esto como un conjunto de herramientas para ayudar a los ingenieros del aprendizaje de máquinas a preguntarse sobre sus datos para así reconocer y diagnosticar si sus sistemas están haciendo predicciones injustas”, dice Sontag.

De acuerdo a Sontag, frecuentemente la clave es salir y hacerse de más datos de los grupos poco representados. Por ejemplo, en un sistema de predicción de ingreso, se halló que más del doble de veces, las empleadas (mujeres) eran mal clasificadas y entonces obtenían peores salarios que los hombres. Hallaron los investigadores que si hubiesen incrementado el conjunto de datos por un factor de 10, estos errores hubieran ocurrido un 40% menos frecuentemente.

Otro ejemplo de conjuntos de datos en donde se halló un sesgo evidente, fue en un sistema que busca predecir la mortalidad del departamento de terapia intensiva en un hospital. Se encontró que los resultados eran menos precisos con los pacientes asiáticos. Hay enfoques razonables para reducir la discriminación que simplemente no se tomaron en cuenta.

El equipo mostrará sus hallazgos este diciembre 2018 en la Conferencia Anual de Sistemas de Procesamiento de Información Neuronal, que se llevará a cabo en Montreal, Canadá.

Fuente: unocero

Mostrar más

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba