DISCRIMINACIÓN ALGORÍTMICA: EL DILEMA DE LA UTILIZACIÓN DE ALGORITMOS E INTELIGENCIA ARTIFICIAL EN LA GESTIÓN DEL TRABAJO

DISCRIMINACIÓN ALGORÍTMICA: EL DILEMA DE LA UTILIZACIÓN DE ALGORITMOS E INTELIGENCIA ARTIFICIAL EN LA GESTIÓN DEL TRABAJO








David Esteban Rojas Segura

Miembro de la Sociedad Colombiana de Derecho del Trabajo 

y de la Seguridad Social

 

La utilización de sistemas de inteligencia artificial y algoritmos en la relación laboral ya es una realidad en el mundo. Se cuentan por centenas, las empresas que utilizan tales sistemas para seleccionar su personal, distribuir las cargas de trabajo, establecer asignaciones salariales, e incluso para terminar la relación contractual, de tal manera que cada una de las fases de la relación de trabajo, esto es, antes, durante y después, está siendo masivamente gestionada por elementos automatizados.

 

El empleo de algoritmos y de inteligencia artificial, representa una forma de tomar decisiones objetivas, basadas íntegramente en los méritos. Al automatizar procesos de decisión, las empresas pueden adoptar decisiones organizativas de forma rápida y eficiente, lo que les permite mejorar su productividad y competitividad. Sin embargo, uno de los grandes riesgos del uso de sistemas de inteligencia artificial, es la posible vulneración de derechos fundamentales de las personas. Entre ellos, se incluye el impacto discriminatorio de esta tecnología.

 

Cada vez, existe más evidencia de que los sistemas de inteligencia artificial y algoritmos, no eliminan las desigualdades, sino que, por el contrario, reproducen muchos de los sesgos que tenemos los humanos y los amplifican. En este punto, merece la pena preguntarnos ¿por qué los algoritmos discriminan?

 

Generalmente, se dice que los algoritmos y la inteligencia artificial son neutros, esto es, que están desprovistos de sesgos, pero la realidad está muy alejada. A menudo, los algoritmos discriminan por las siguientes razones:

 

      i.         Utilización de proxys.

La tecnología es capaz de inferir ciertas características personales, basadas en nuestros datos. Es decir, aunque no le digamos al algoritmo de forma directa, que un trabajador es sindicalista, el algoritmo lo puede averiguar, al igual que su tendencia ideológica o religiosa. Gracias a las redes sociales, el algoritmo, descubre los diarios que consulta una persona, o las fuentes de información que utiliza, puede extraer características de la personalidad. Los algoritmos y la inteligencia artificial, son capaces de obtener esa información a través de otros datos, por ejemplo, el domicilio, las preferencias o el correo electrónico.

 

Datos que aparentemente son inofensivos, como el correo electrónico o el domicilio, actúan como proxys de información sensible, y aunque esa información, en sentido estricto no sea una causal de discriminación, pueden generar patrones de discriminación por las inferencias y asociaciones que hacen los algoritmos.

 

    ii.         La construcción del algoritmo.

El algoritmo es especialista en mejorar su desempeño gracias al Deep learning, es decir, aprendizaje profundo con el tiempo.  Esto implica, que los algoritmos se entrenan para aconductuarlos, a través de la utilización de una gran cantidad de datos que utiliza como insumo, para luego poder hacer predicciones y extraer patrones sobre los cuales va a adoptar decisiones.

 

La inteligencia artificial, tiene la capacidad para nutrirse de conocimiento por sí misma, y servir de instructora a otros algoritmos. Para cumplir con este objetivo, la inteligencia artificial procesa cantidades de datos, pero los criterios que utiliza en ese procesamiento, los construimos nosotros, los humanos, y en específico, profesionales de la programación.  

 

En este punto, los sesgos del mundo real se pueden trasladar a los entornos digitales. Si la realidad está inclinada, como a menudo sucede, el algoritmo va a estar sesgado, es decir, el algoritmo va a incorporar y a tomar esos caracteres. Por ejemplo, Si el 80% de los trabajadores de planta de una compañía son hombres, el algoritmo va a acoger, que para cubrir los puestos de trabajo, los hombres son mejores candidatos que las mujeres.

 

Entonces, la toma de decisiones automatizadas implica, que la discriminación podría convertirse en constante, uniforme e inflexible.

 

 

 

   iii.         Minorías en desventaja.

Los algoritmos trabajan con estadísticas, y estas se basan en probabilidades.  Sí, por ejemplo, construimos una muestra de 3000 personas, la decisión se hará más fiable, en comparación a si se tiene una muestra de 50 personas. 

 

Por tanto, cuanto más grande es la muestra, más fiable la estadística. Con los algoritmos sucede exactamente lo mismo, si la población que alimenta con sus datos es voluminosa, la precisión se hará más fiable.

 

Así, las minorías, que por definición son menos, van a estar siempre en desventaja en el rol de los algoritmos.

 

   iv.         Los sesgos de los creadores de los algoritmos.

Los creadores de los algoritmos, al igual que todos los seres humanos, tienen sus propios pensamientos, valores e ideas.

 

No hace falta entonces irse a las ciencias estadísticas. En Syllicon Valley, más del 70% de los programadores son hombres, con excelente educación y un poder adquisitivo alto, entonces, esto ya implica, que los creadores tengan sus propios sesgos. Un ejemplo claro es, la utilización de vocablos femeninos para referir a los asistentes de software. Las asistentes de Amazon, Google y Apple son mujeres: Alexa, Cortana y Siri.

 

Los estereotipos de género, están tan incrustados en el código de estos productos, que resulta un problema. En el año 2020, se reveló que cuando se le decía a Siri “Hey siri, you are a bitch”, contestaba: “me pondría roja si pudiera”. Ello dio lugar a un informe titulado “me pondría roja si pudiera”[1] de la UNESCO, en el cual se denuncian estereotipos de género en estos algoritmos y violencia sexual contra la mujer.

 

Meses más tarde de este incidente, Apple reprogramaría sus bots, para rechazar el acoso sexual, y ante afirmaciones de acoso sexual, ahora responda “no sé cómo responder a eso” o “no sé qué respuesta esperas”. Esta nueva respuesta, continuaba reflejando una imagen de una mujer dócil y sumisa que no responde contundentemente a la ofensa.

 

No hay motivos razonables, para los que estos algoritmos deban tolerar el abuso o ser sumisos ante este, lo cual denota, un profundo sesgo sexista de quien los programa.

 

Ante este escenario, ¿Cuál es el tratamiento jurídico de la discriminación algorítmica?  Es posible aplicar la doctrina antidiscriminatoria actual, a la discriminación algorítmica, sin que sea necesario crear nuevas categorías jurídicas. En concreto, los supuestos de segregación algorítmica son del terreno de la discriminación indirecta: Algoritmos que utilizan variables, o que han sido entrenados sobre bases de datos sesgados, o que han alcanzado correlaciones sesgadas, pueden constituir una arbitrariedad.   Es decir, una práctica empresarial aparentemente neutra, que tiene un impacto negativo sobre uno de los colectivos protegidos.

 

Existen dudas, sobre cómo interpretarán los tribunales, la existencia de discriminación basada en variables proxy, ya que estas variables, no son a menudo tenidas en cuenta por los jueces.  La discriminación algorítmica, plantea unos nuevos retos a los que se debe dar respuesta. Para ello, se debe entrar a considerar soluciones desde lo técnico de la ciencia de datos y desde lo jurídico:

 

      i.         Incorporar personal de diversos géneros y razas en los equipos de programación de los algoritmos.

    ii.         Superar la brecha de datos para evitar que la inteligencia artificial reproduzca los patrones de discriminación externos existentes.

   iii.         Todo trabajador sometido a una decisión automatizada, debe tener derecho a intervención humana por parte del responsable y a expresar su punto de vista e impugnar la decisión[2].

 

Sin lugar a duda, los retos son mayúsculos en temas de IA y el mundo del trabajo. La tecnología y la inteligencia artificial, son imparables en la gestión del trabajo humano; sin embargo, debemos usar la tecnología para afrontar los mayores desafíos que tenemos como humanidad y, entre ellos, promover la igualdad y la no discriminación, cuando estamos en temas de derechos sociales.



[1] UNESCO. I'd blush if I could: closing gender divides in digital skills through education [En inglés]. 2019. Disponible para su consulta en: https://unesdoc.unesco.org/ark:/48223/pf0000367416.page=1

[2] TODOLÍ SIGNES, Adrián, “La gobernanza colectiva de la protección de datos en las relaciones laborales: big data, creación de perfiles, decisiones empresariales automatizadas y los derechos colectivos”, RDS, nº 84, 2018, págs. 69-88.

Comentarios

Entradas más populares de este blog

¿ACCIDENTE DE TRABAJO INDIRECTO?

LOS HIJOS DE CRIANZA Y APORTADOS EN LA PENSIÓN DE SOBREVIVIENTES

¿LA INMEDIATEZ Y LA SUBSIDIARIEDAD, SE UTILIZAN PARA NEGAR DERECHOS SOCIALES EN COLOMBIA?