
Dos estudios independientes han puesto en tela de juicio la equidad de las tecnologías de inteligencia artificial aplicadas al reclutamiento laboral en Estados Unidos. Los resultados, basados en miles de decisiones simuladas, apuntan a que los algoritmos que ya están siendo utilizados por compañías estadounidenses para filtrar y seleccionar candidatos podrían reproducir —o incluso agravar— desigualdades ya presentes en los procesos tradicionales.
El primero fue realizado por David Rozado, profesor asociado en el New Zealand Institute of Skills and Technology, quien sometió a prueba 22 modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés) —entre ellos ChatGPT, Gemini y Grok— en simulaciones de selección de personal. A través de pares de currículos sintéticos e idénticos, diferenciados únicamente por el nombre (asociado a un género), el investigador encontró que las IA eligieron al perfil femenino en un 56.9% de las veces, superando significativamente el equilibrio esperado del 50%.
“Mi diseño experimental garantizó que las calificaciones estuvieran distribuidas de forma equitativa entre los géneros. Idealmente, no debería haber diferencias sistemáticas en las tasas de selección”, explicó Rozado a Newsweek.
Aunque el estudio de Rozado no empleó postulaciones reales, las plataformas analizadas son herramientas desarrolladas por empresas tecnológicas con sede en Estados Unidos y ya están en uso en múltiples organizaciones. Un informe reciente del New York Times describe cómo las entrevistas automatizadas por voz, basadas en IA, se han vuelto frecuentes en el país. Bots como “Alex”, capaces de mantener conversaciones con pausas humanas simuladas, están evaluando candidatos sin intervención humana directa.
Jennifer Dunn, una profesional de marketing en San Antonio, narró al diario que finalizó antes de tiempo su entrevista con el sistema: “No se siente real”, dijo. Por su parte, Emily Robertson-Yeingst expresó dudas sobre el uso de su interacción: “Empiezas a preguntarte, ¿fui parte de un experimento?”
Las compañías defensoras de estas soluciones argumentan que la automatización permite escalar procesos. Propel Impact, citada por el Times, aseguró haber triplicado el número de entrevistas realizadas gracias a este sistema, llegando a 500 postulantes en un año.

En paralelo, un estudio publicado por la Brookings Institution —un centro de investigación con sede en Washington D. C.— observó que en ciertas pruebas, los algoritmos tendían a favorecer a hombres en un 51.9% de los casos, pero lo más preocupante fue la discriminación por nombre: los sistemas mostraron una preferencia marcada por nombres blancos sobre nombres asociados a personas afroamericanas.
El análisis subrayó que las identidades interseccionales, como ser afroamericano y hombre, generaban las mayores desventajas. Aunque la metodología de Brookings difería de la de Rozado, ambos estudios coincidieron en una conclusión central: los sistemas de inteligencia artificial no están preparados para tomar decisiones sin supervisión humana en contextos de alto impacto como el empleo.
En el caso de Rozado, el sesgo observado no se alteró ni con el tamaño del modelo ni con el volumen de computación empleado. La introducción de pronombres preferidos (“she/her”, “he/him”) también influyó levemente en la selección final, al igual que el orden en que los perfiles eran presentados en el prompt, un detalle aparentemente trivial que terminó siendo decisivo en algunos escenarios.
“Estas tendencias persistieron independientemente del tamaño del modelo o del poder computacional utilizado. Esto sugiere que el sesgo en decisiones de contratación automatizadas no se debe a una deficiencia técnica aislada, sino a un problema sistémico”, afirmó Rozado.
Tanto él como los autores del estudio de Brookings recomiendan auditorías externas, transparencia total y un marco regulatorio específico antes de implementar este tipo de tecnología en procesos con consecuencias sociales directas.

Rozado advirtió que sus resultados deben interpretarse con cautela, ya que utilizó descripciones y currículos sintéticos en un entorno controlado. Sin embargo, insistió en que los resultados ponen en evidencia la necesidad de mayor vigilancia: “Dada la evidencia actual de sesgos e imprevisibilidad, creo que los LLMs no deberían ser utilizados en contextos críticos como la contratación, salvo que sus resultados hayan sido evaluados rigurosamente en cuanto a equidad y fiabilidad”.
En un país como Estados Unidos, donde el volumen de aplicaciones laborales y la presión por automatizar procesos es constante, la recomendación no es menor. La carrera por integrar IA al ciclo de recursos humanos sigue acelerándose, pero los estudios recientes advierten que su velocidad no debe superar la capacidad de garantizar justicia e imparcialidad en cada decisión.