Sesgos discriminatorios en la Inteligencia Artificial (IA)

¡Buenas a tod@s!


Para este primer reto he decidido centrarme en una noticia de hace ya tiempo, pero que me ha parecido muy curiosa y que evidencia, sin duda, que los sistemas de IA, tan útiles, tan actuales y en muchos casos también tan necesarios hoy en día, pueden llegar a perjudicar y discriminar a las mujeres.

Os cuento brevemente la noticia, que podéis encontrar en este enlace, y después paso a hacer una reflexión sobre ello: en 2014 Amazon utilizó un algoritmo para contratar personal y, al ser la mayoría de los empleados de sexo masculino, el programa llegó a la conclusión de que lo mejor para Amazon era fichar a hombres. Este proyecto, afortunadamente, se abandonó hasta que se perfeccionara el algoritmo.

¿Por qué ocurrió esto? Pues principalmente porque las bases de datos con las que diseñaron el algoritmo estaban ya sesgadas de origen. Es decir, el punto importante en todo esto no es que los sistemas de IA perjudiquen en muchas ocasiones a las mujeres, sino por qué lo hacen. Y sobre ese punto es sobre el que hay que trabajar para que dejen de hacerlo. En conclusión, cuando la realidad está sesgada, el algoritmo también lo va a estar. Una de las soluciones, a mi modo de ver, podría ser corregir esos sesgos desde el origen, introduciendo valores que tengan en cuenta que la realidad existente es discriminatoria. Pero, obviamente, esa solución debería ser transitoria en tanto se consigue la solución que podría considerarse "ideal". Porque una parte muy importante en todo esto es que la mayoría de personas que se dedican al sector de IA también son hombres y, por tanto, es más fácil que elaboren algoritmos sesgados. La solución podría pasar por promocionar este sector para que se dé una presencia equilibrada entre mujeres y hombres que se dediquen a este ámbito, así como formación en igualdad de género y no discriminación para los trabajadores y trabajadoras que contribuyen en la creación de algoritmos para sistemas de IA con el fin de que, cuando diseñen ese algoritmo, ya lo hagan desde una perspectiva de género.

Como conclusión final: al hilo de los aspectos que trata el Módulo 1, en mi opinión, el hecho de que haya tan poca presencia femenina en sectores relacionados con la ingeniería y, por tanto, en sectores que se dedican al desarrollo de sistemas de IA, se debe en parte a esos estereotipos y roles de género que nos van calando desde la infancia, y que nos van mostrando una disociación entre "tareas para mujeres" y "tareas para hombres". Ahora ya sabemos que no hay "cosas de chicas" ni "cosas de chicos"; hay simplemente "cosas" que se te pueden dar mejor o peor independientemente de cuál sea tu sexo. Es hora de ponerlo en práctica, y de que las nuevas generaciones dispongan de un abanico más amplio de posibilidades que estudiar, al no estar mentalmente condicionadas por lo que se supone que pueden o no hacer en función de su sexo.

Espero que os haya resultado 
interesante, ¡un saludo!

Comentarios

Entradas populares de este blog

La mala leche. Henar Álvarez y Ana Müshell

Pamela Palenciano, referente para muchas personas jóvenes y adolescentes