La seguridad con la IA – Tauhid Zaman

Tauhid Zaman, Associate Professor, Operations Mangement

From Computerworld Colombia 

¿ Creen que sería genial si un computador lograra identificar un criminal antes de cometer un crimen? Ese es el objetivo del Machine Learning, que está convirtiéndose en una herramienta popular en la prevención del crimen.

Por medio del análisis de datos como edad, género y las condenas anteriores, los computadores pueden predecir si es probable que alguien cometa un delito. Si usted es un juez y está decidiendo si conceder una fianza o enviar a alguien a la cárcel, esa información puede ser bastante útil. El problema es que el aprendizaje automático también puede ser extremadamente peligroso porque, si se confía por completo en él, puede mantener a una persona inocente tras las rejas.

En un estudio reciente, analizamos si el aprendizaje automático podría aplicarse para identificar terroristas en las redes sociales. Utilizando datos de varios cientos de miles de cuentas de extremistas en Twitter, desarrollamos un modelo de comportamiento para usuarios que podría predecir si las cuentas nuevas también estaban conectadas al ISIS. Si bien el modelo podría atrapar a muchos extremistas, también vimos cómo el aprendizaje automático es susceptible de dos errores comunes: primero, el algoritmo puede mostrar falsos positivos al identificar erróneamente a alguien como un terrorista. En segundo lugar, puede mostrar falsos negativos, al errar la identificación de verdaderos terroristas.

Un gran desafío con el Machine Learning es que, con frecuencia cuando se entrena un algoritmo, a estos dos tipos de errores se les asigna el mismo peso, aunque los falsos positivos podrían tener un mayor impacto en la sociedad. Por ejemplo, las estadísticas muestran que los afroamericanos constituyen el 40% de la población carcelaria. Usando esa información, el sistema puede asignar un valor de mayor riesgo a un afroamericano. Esto puede llevar al arresto de algunos criminales, pero también causará mucho resentimiento y desconfianza, haciendo que la policía sea menos efectiva y creando una sociedad racialmente injusta.

Si bien en teoría los algoritmos son indiferentes a la raza, también están diseñados para buscar patrones
en los datos. El problema es que los datos fueron creados por una sociedad que está contaminada por herencias de situaciones como la esclavitud y las leyes Jim Crow, que promovían la segregación racial en todas las instalaciones públicas bajo el lema “separados pero iguales” y se aplicaban a los afroamericanos y a otros grupos étnicos no blancos en algunos estados de EE. UU.

Read the full post at Computerworld Columbia.

Tauhid Zaman is an Associate Professor of Operations Management at the MIT Sloan School of Management. 

Leave a Reply

Your email address will not be published. Required fields are marked *