L’utilisation des services d’ensembles de règles protège-t-elle contre les préjugés ou les améliore-t-elle? Cette question essentielle est apparue comme un motif d’inquiétude pour les partisans de la technologie ainsi que pour ses sceptiques, mais il est plus compliqué d’y parvenir que de donner la bonne réponse. L’emploi n’est presque jamais un choix individuel, mais plutôt l’aboutissement d’une série de choix plus petits et séquentiels. Les techniques jouent des emplois distincts tout au long de cette technique: certaines orientent les offres d’emploi vers un certain nombre de candidats potentiels, tandis que d’autres désignent des personnes indirectes pour le recrutement. L’analyse prédictive des instruments et la cote de crédit reprennent, et aident les superviseurs à employer à examiner les compétences des prospects de manière nouvelle, en utilisant les deux informations classiques et uniques. Beaucoup pensent que les algorithmes peuvent aider les décisionnaires humains à prévenir leurs propres préjugés en ajoutant de la persistance à l’approche de recrutement. Mais les algorithmes apportent de nouveaux dangers. Ils sont capables de dupliquer des biais institutionnels et antiques, amplifiant les inconvénients cachés dans les détails de données tels que la fréquentation universitaire ou les évaluations d’analyse de performance.
Que les algorithmes éliminent une part de subjectivité de l’utilisation des services de processus, séminaire les êtres humains continuent d’être grandement associés aux décisions d’embauche finales. Les arguments qui définissent des ensembles de règles «objectifs» comme étant plus justes et plus précis que des êtres humains faillibles négligent de noter pleinement que, dans de nombreux cas, jouent également un rôle. Pour comprendre les biais liés à l’utilisation des services d’un ensemble de règles et de moyens de les atténuer, nous devons apprendre comment les technologies prédictives fonctionnent à chaque étape de la procédure de sélection. Même s’ils partagent souvent les bases de la compréhension de l’unité, les ressources utilisées auparavant peuvent être fondamentalement meilleures que celles utilisées plus tard. Même les outils qui semblent effectuer exactement le même processus peuvent s’appuyer sur des informations de types totalement différents, ou sur des estimations existantes selon des méthodes radicalement différentes. Notre examen des ressources prédictives tout au long de l’approche de sélection aide vraiment à clarifier ce que font exactement les «algorithmes de recrutement», et comment et où un biais peut entrer dans la méthode. Malheureusement, nous avons constaté que la plupart des algorithmes de sélection dériveraient automatiquement vers les préjugés. Bien que leur contribution potentielle à la réduction des préjugés sociaux ne doive pas être réduite, seules les ressources qui s’attaquent de manière proactive à des disparités plus profondes vous permettront d’espérer que la technologie moderne prédictive contribuera à encourager la valeur nette de la maison, au lieu de l’éroder. L’utilisation des services de processus commence bien avant qu’un demandeur d’emploi ne soumette un logiciel.
Au cours de la période de «recrutement» ou de recrutement, les technologies prédictives aident à commercialiser les emplois disponibles, alertent les demandeurs d’emploi sur les rôles potentiellement souhaitables et ouvrent des perspectives potentielles aux recruteurs pour une portée positive. Pour attirer les candidats, de nombreuses organisations utilisent des systèmes de publicité algorithmiques et des tableaux de bord pour parvenir de loin aux demandeurs d’emploi les plus «pertinents». Ces solutions, qui garantissent aux entreprises une utilisation plus efficace des ressources financières en matière d’embauche, produisent souvent des prévisions très superficielles: elles ne prédisent pas qui obtiendra le succès dans la fonction, mais qui cliquera probablement tout simplement sur cette tâche. Ces prophéties peuvent conduire les annonces de travail à être diffusées d’une manière qui prenne en charge les stéréotypes sexistes et raciaux, même si les entreprises n’ont pas ce genre d’objectif. Dans une étude récente que nous avons menée avec des collègues de Northeastern School et de USC, nous avons découvert, entre autres choses, que les publicités généralement ciblées sur Facebook ou Twitter pour des placements dans des caisses d’épicerie étaient effectivement montrées à un public de 85% de filles, lorsque des tâches de taxi les entreprises ont visité un public composé à 75% de couleur noire. C’est un cas typique de tout algorithme reproduisant un biais du monde réel, sans implication humaine. Dans le même temps, des forums de travail personnalisés, tels que ZipRecruiter, tentent de comprendre immédiatement les choix des recruteurs et utilisent toutes ces prophéties pour obtenir des personnes très similaires.
À l’instar de Facebook, ces systèmes de recommandation sont spécialement conçus pour obtenir et reproduire les styles dans le comportement des utilisateurs finaux, en mettant à jour les prophéties de manière dynamique à mesure que les entreprises et les demandeurs d’emploi interagissent. Si la méthode remarque que les recruteurs affligent socialisent plus souvent avec des hommes de couleur blanche, elle pourrait très bien localiser les mandataires pour ces qualités (comme s’appeler Jared ou jouer activement à la crosse au lycée) et reproduire cette conception. Ce type d’impact indésirable peut se produire sans instruction spécifique et, pire encore, sans reconnaissance individuelle. Les techniques de localisation ne sont pas une surface d’imagination probable pour beaucoup d’individus quand ils se sentent «comme une formule d’algorithme d’embauche». Cependant, séminaire les sélections informatisées à ce stade précoce de l’entonnoir employé sont nombreuses. À titre d’exemple, le marché en ligne d’Amazon, abandonné au profit des femmes défavorisées, n’était pas un instrument de variété permettant d’évaluer des personnes réelles, mais un outil permettant de découvrir des candidats passifs à recruter pour les recruteurs. La recherche d’algorithmes n’engage peut-être pas ouvertement les individus, mais comme l’a suggéré une chercheuse autorisée, Pauline Kim, «ne pas informer les employés d’une option de travail peut être un obstacle très efficace» pour les personnes à la recherche d’un emploi. Ces outils électriques ne font peut-être pas généralement les gros titres dystopiques, mais ils jouent un rôle crucial dans la détermination des personnes pouvant accéder à la procédure de recrutement, que ce soit.