Cómo una ley propuesta podría combatir el racismo, el sexismo y los prejuicios asociados con la tecnología de la selección de candidatos(as).
Por Alexandra Reeve Givens , Hilke Schellmann y Julia Stoyanovich
La Sra. Givens es la directora ejecutiva del Center for Democracy & Technology. La Sra. Schellman y el Dr. Stoyanovich son profesores de la Universidad de Nueva York que se centran en la inteligencia artificial.
La democracia estadounidense depende de que todos tengan el mismo acceso al trabajo. Pero en realidad, las personas de color, las mujeres, las personas con discapacidades y otros grupos marginados experimentan desempleo o subempleo a tasas desproporcionadamente altas, especialmente en medio de las consecuencias económicas de la pandemia de Covid-19 . Ahora, el uso de tecnología de inteligencia artificial para la contratación puede exacerbar esos problemas y generar más sesgos en el proceso de contratación.
En este momento, el Ayuntamiento de Nueva York está debatiendo una nueva ley propuesta que regularía las herramientas automatizadas que se utilizan para evaluar a los candidatos y empleados. Si se hace bien, la ley podría marcar una diferencia real en la ciudad y tener una amplia influencia a nivel nacional: en ausencia de una regulación federal, los estados y las ciudades han utilizado modelos de otras localidades para regular las tecnologías emergentes.
En los últimos años, un número creciente de empleadores ha comenzado a utilizar inteligencia artificial y otras herramientas automatizadas para acelerar la contratación, ahorrar dinero y seleccionar a los solicitantes de empleo sin interacción en persona. Todas estas son características que son cada vez más atractivas durante la pandemia. Estas tecnologías incluyen filtros que escanean los currículums en busca de palabras clave, juegos que afirman evaluar atributos como la generosidad y el apetito por el riesgo , e incluso analizadores de emociones que afirman leer señales faciales y vocales para predecir si los candidatos participarán y serán jugadores de equipo.
En la mayoría de los casos, los proveedores capacitan estas herramientas para analizar a los trabajadores que su empleador considera exitosos y para medir si los solicitantes de empleo tienen rasgos similares. Este enfoque puede empeorar la subrepresentación y las divisiones sociales si, por ejemplo, los hombres latinos o las mujeres negras están representados de manera inadecuada en el grupo de empleados. En otro caso, una herramienta de selección de currículums podría identificar las escuelas de la Ivy League en los currículos de los empleados exitosos y luego degradar currículos de universidades históricamente negras o de mujeres.
En su forma actual, el proyecto de ley del consejo requeriría que los proveedores que venden herramientas de evaluación automatizadas las auditen en busca de prejuicios y discriminación, verificando si, por ejemplo, una herramienta selecciona candidatos masculinos en una tasa más alta que las candidatas femeninas. También requeriría que los proveedores les digan a los solicitantes de empleo las características que la prueba afirma medir. Este enfoque podría ser útil: arrojaría luz sobre cómo se seleccionan los solicitantes de empleo y obligaría a los proveedores a pensar críticamente sobre los posibles efectos discriminatorios. Pero para que la ley tenga dientes, recomendamos varias protecciones adicionales importantes.
Fuente: Columna de Opinión NY Times
https://www.nytimes.com/2021/03/17/opinion/ai-employment-bias-nyc.html