Los algoritmos son sexistas: una discriminación constante

Los sesgos por género han llegado hasta la inteligencia artificial y los asistentes virtuales. Este pequeño reportaje te explica por qué

La discriminación por género supone discriminar a alguien y someterle a un trato de desigualdad por razón de sexo. No es una sorpresa que haya discriminación entre hombres y mujeres en todos los ámbitos. Lo que sí lo es, es que los algoritmos también incorporan estas tendencias machistas, ya que son capacidades matemáticas de aprendizaje y necesitan datos para ser entrenados. Estos datos pueden ser normalmente observables, pueden estar disponibles públicamente o pueden ser datos creados en algunas empresas. De esta manera, los algoritmos operan sobre estos datos para aprender a partir de ellos.

 La inteligencia artificial se nutre de los algoritmos para que ésta pueda poner en marcha su correcto funcionamiento. A pesar de ello, existe el problema de que los algoritmos de inteligencia artificial están aprendiendo e incorporando por sí mismos los sesgos o discriminación de género. Esto es conocido como el “machine learning”, es decir, es una especie de rama de la inteligencia artificial que permite que las máquinas aprendan sin ser expresamente programadas para ello. Esta tecnología está presente en muchas aplicaciones, como por ejemplo las recomendaciones de Netflix, Spotify o el habla de asistentes virtuales como Siri y Alexa.

Existen diferentes tipos de algoritmos dependiendo de las preferencias que incorpora el mismo en contra a otros sesgos. Podemos destacar un total de cinco sesgos: el sesgo de presentación, el sesgo de filtro, el sesgo de selección o el sesgo de muestreo, el sesgo histórico o el sesgo de agregación.

El sesgo de presentación se deriva de la ubicación en la página web de un contenido particular. Las imágenes de las mujeres se ven afectadas por los sesgos en los medios de comunicación constantemente. Uno de los múltiples ejemplos se ve reflejado en un estudio en el que la mayoría de las portadas de los periódicos de Reino Unido reflejan a las mujeres únicamente cuando son celebridades o víctimas.

El sesgo de filtro se produce cuando el propio usuario busca información y encuentra contenidos que refuerzan sus ideas, preferencias y gustos. Es decir, estas burbujas de información, aparte de reflejar las identidades de las personas ya definidas por los algoritmos, también generan sus propios sesgos.

El sesgo de selección o muestreo comienza con una fase de diseño que sucede cuando, por ejemplo, el entrenamiento de los algoritmos de reconocimiento facial, los datos se basan en imágenes mayormente de hombres o mujeres blancas. Después, la búsqueda en línea se produce cuando la mayor parte del contenido de internet no son muestras tomadas al azar, sino que eliges entre un contenido ya preestablecido.

El sesgo histórico se basa en las decisiones algorítmicas ya inculcadas en datos del pasado que conllevan a problemas que pueden generar y afianzar tendencias indeseables. Por ejemplo, los algoritmos entrenados en imágenes de expresidentes de Estados Unidos pronosticaron que ganaría las elecciones de 2016. Si es por estos algoritmos, nunca hubiese ganado la presidencia una mujer.

El sesgo de agregación es típico en la discriminación contra la mujer. Este se da cuando se obtienen conclusiones algorítmicas para mujeres a partir de conjuntos de datos que agregan informaciones sobre poblaciones en general como puede ser el caso de Siri, Bixby, Alexa, Cortana o la asistente de Google.

También han existido casos de discriminación de género en los algoritmos de grandes empresas como Amazon, en el que se puso en marcha un sistema algorítmico en el que buscaban ahorrar tiempo y mano de obra. Esta investigación fue llevada a cabo por Reuters a la que cinco miembros del equipo que trabajaron en el desarrollo del algoritmo, le explicaron que el algoritmo se enseñó así mismo que los candidatos masculinos eran una preferencia. Esto se podía observar cuando las solicitudes a un puesto de trabajo supuestamente de hombres, incluían la palabra mujer, por lo que el algoritmo las descartaba.

EL CASO DE LOS ASISTENTES VIRTUALES

En España, los asistentes virtuales tienen un gran uso entre los ciudadanos, siendo los más utilizados Siri, Alexa, Google Assistant y Cortana. Además, según datos del Estudio General de Medios (EGM) realizado por la Asociación para la Investigación de Medios de Comunicación (AIMC), el asistente virtual Siri de Apple es el más utilizado por los ciudadanos españoles con un 86,2%, seguido del asistente Google Assistant con un 11.6%.

El acceso a este tipo de asistentes virtuales se utiliza principalmente tanto en ordenadores con un 50,1%, como en smartphones con un 37,1%, así como en altavoces inteligentes como Alexa de Amazon con un 7,8%. Además, tal y como afirma EGM, en 2019 el 10,7% de los ciudadanos españoles afirmaron utilizar esta tecnología.

Otro informe realizado por Statista 2021 estableció la previsión del número de asistentes virtuales en uso a nivel mundial entre los años 2019 a 2023, concluyendo con una gran evolución en escala del uso de esta tecnología.

 

Muchos estudios han demostrado además cómo la piel oscura deja de ser reconocible por los diferentes sistemas de reconocimiento facial a causa de los sesgos algorítmicos. En esta gráfica se muestra uno de los ejemplos donde los datos para entrenar los algoritmos de este reconocimiento se basan sobre todo en imágenes de hombres blancos.

 

 Artículo: María Vecina / AFPRESS

Fotografías: Markus Spiske, ecosistema, domoticada y techedgegroup