De todas las formas de exclusión, la discriminación por IA (inteligencia artificial) parece ser una de las más sutiles. Su capacidad de camuflarse como un recurso tecnológico objetivo y sólidamente imparcial le confiere un carácter aún más temible. Pero su condición impoluta y aséptica es en realidad una entidad tan cargada de prejuicios como cualquier supremacista blanco.
El software de inteligencia artificial y análisis facial se está convirtiendo en un recurso para realizar entrevistas de trabajo. La empresa estadounidense HireVue ha desarrollado una tecnología que analiza el lenguaje y el tono de voz de los candidatos. Los algoritmos seleccionan a los mejores solicitantes evaluando vídeos frente a unos 25.000 datos faciales y lingüísticos. Los datos son compilados a partir de entrevistas anteriores de los que han demostrado ser buenos en el trabajo. Esta herramienta ha sido empleada por unas 700 empresas, incluyendo Vodafone, Hilton y Urban Outfitters.
Puedes leer: ¿Por qué el experimento Kentler es tan vergonzoso para Alemania?
La entrevista de trabajo constituye una de las situaciones más difíciles de afrontar por el humano contemporáneo. Lo que está en juego en ellas no es poca cosa. En unos minutos tu vida es sometida al escrutinio de alguien que representa a una corporación. Allí, todo gesto de amabilidad es solo una pretensión. Sonríes sin ganas, solo por puro nervio, tratando de mostrar tu mejor rostro, tus mejores dientes. Ellos, del otro lado esgrimen buenos modales, ofrecen café y piden que te sientas cómodo. Pero nunca te enseñan las tijeras que cortan los tenues hilos que sostienen la esperanza de ser admitido. Ahora ese escenario de crujir de dientes está cambiando para pasar a un escenario peor. Las tijeras ahora las opera un algoritmo.
Cómo opera la discriminación por IA
Los elementos lingüísticos analizados por la inteligencia artificial son muy precisos. Estos incluyen tono de voz, uso de palabras pasivas o activas, longitud de las frases y velocidad al hablar. Los rasgos faciales comprenden fruncimiento y elevación de cejas, parpadeos, elevación de la barbilla y sonrisas.
Este recurso tecnológico representa para sus críticos la implantación de una forma de discriminación por IA. Los prejuicios, la desigualdad y los valores excluyentes se encuentran contenidos en los datos sobre los cuales los algoritmos «aprenden». La evaluación de los candidatos es procesada por este aprendizaje sesgado por valores culturales pre-establecidos.
El capital simbólico que llevamos a cuestas
Según el sociólogo francés Pierre Bourdieu, cuando atendemos una entrevista de trabajo vamos cargados de “capital simbólico”. Esto es el capital económico y cultural desarrollado en nuestro entorno. Lugar de nacimiento, calidad de la enseñanza, la presencia o ausencia de actividades extraescolares son factores que nos determinan. Esa determinación nos solo se refleja en las capacidades intelectuales sino que abarca otros niveles de nuestra personalidad. La forma como nos percibimos, nuestra gestualidad, los movimientos corporales y nuestra voz forman parte de nuestro capital simbólico.
Es aquí donde entra en juego la discriminación por IA. El análisis ejecutado por el algorítmico evaluará el capital simbólico y el ajuste de la data con patrones establecidos como “exitosos”. Por supuesto, esto es algo que siempre ha sido el caso en la sociedad. Pero la inteligencia artificial sólo lo reforzará al alimentarse de datos de los candidatos que tuvieron éxito en el pasado.
Si te pones nervioso pierdes
En el formato anterior, un entrevistador a pesar de detectar gestos nerviosos en un entrevistado, podía obviarlos y concentrarse en otras fortalezas. Podía confiar en su intuición para darle una oportunidad a quien aparentemente mostraba fallas comunicativas. Después de todo, cualquier examen nos coloca a todos en una vulnerabilidad difícilmente controlable en su manifestación gestual. Esto es imposible bajo el férreo análisis de la inteligencia artificial. Si tu barbilla tiene un ángulo que transmita inseguridad o parpadeas incontrolablemente, pierdes. Eres un “looser”.
La discriminación por IA impulsa el rechazo de personas talentosas e innovadoras que no encajan en el perfil “correcto”. Esto perjudicaría a las empresas a largo plazo al perder el talento que viene en formas no convencionales.
Inteligencia no tan artificial
Lo más preocupante es que esta tecnología también puede excluir inadvertidamente a personas de diversos orígenes. Las oportunidades recaerían en aquellos que proceden de entornos privilegiados. Los que poseen mayor capital económico y social obtienen habilidades que se convierten en capital simbólico valorizado por el algoritmo.
Puedes leer: La tormenta perfecta para las plagas veraniegas en España
La “artificialidad” de esta inteligencia no parece ser tan ajena a nuestra naturalidad. Nada de lo que haga el hombre escapa de lo humano y de su carga de valores y prejuicios. Los algoritmos están condenados a reproducir la desigualdad con la que los alimentamos.