Recruté par intelligence artificielle

Les techniques d’embauche évitent-elles les préjugés ou les renforcent-ils? Cette préoccupation fondamentale est apparue comme une source d’inquiétude pour les partisans de la technologie ainsi que pour ses sceptiques, mais la réponse à cette question est plus avancée qu’il n’apparaît. L’utilisation des services de n’est presque jamais un choix, mais plutôt l’aboutissement de choix plus compacts et séquentiels. Les techniques remplissent diverses fonctions tout au long de cette procédure: certaines orientent les annonces de tâches vers des candidats particuliers, tandis que d’autres signalent des candidats non agressifs au recrutement. L’analyse prédictive de l’équipement et le pointage de crédit reprennent, et aident les administrateurs d’embauche à évaluer les compétences des prospects en nouvelles techniques, en utilisant chacune des données traditionnelles et innovantes. On s’attend beaucoup à ce que les techniques aident les créateurs de sélection d’hommes à prévenir leurs propres préjugés en persistant dans l’approche de sélection. Mais les techniques apportent de nouveaux dangers. Ils pourraient reproduire les biais institutionnels et historiques, amplifiant les inconvénients cachés dans des facteurs d’information tels que la fréquentation scolaire ou les scores globaux d’analyse de performance.

Même si des ensembles de règles éliminent une part de subjectivité dans l’utilisation des services d’approche, les personnes seront toujours grandement impliquées dans la suppression des choix d’embauche. Les différends selon lesquels les techniques «objectives» sont plus justes et plus exactes que les êtres humains faillibles ne savent pas que, dans la plupart des cas, ils sont également impliqués. Pour comprendre les biais liés à l’utilisation des services d’algorithmes et aux moyens de les atténuer, nous devons apprendre comment les systèmes prédictifs fonctionnent à chaque étape de l’approche employante. Bien qu’ils révèlent généralement un élément d’ancrage dans la compréhension du dispositif, séminaire les outils utilisés précédemment pouvaient être essentiellement distincts de ceux utilisés ultérieurement. Même les ressources qui semblent effectuer le même travail pourraient dépendre d’informations d’un type totalement différent ou présenter des prophéties de manières très différentes. Notre examen des ressources prédictives tout au long du processus de sélection permet de clarifier ce que font les «algorithmes de recrutement» et où et comment les préjugés peuvent entrer dans le processus. Malheureusement, nous avons constaté que la plupart des services utilisant des algorithmes dériveraient par défaut dans la direction du biais. Même si leur contribution probable à la réduction des préjugés sociaux ne devrait pas être réduite, seules les ressources qui s’attaquent de manière proactive à des disparités encore plus profondes laisseront tout espoir que les technologies prédictives puissent contribuer à encourager l’équité plutôt que l’éroder. L’utilisation des services de l’approche commence effectivement bien avant qu’un demandeur d’emploi soumette un logiciel.

Tout au long de la phase de «recrutement» ou de recrutement, la technologie prédictive aide à annoncer les ouvertures de carrière, à alerter les demandeurs d’emploi sur les placements éventuellement souhaitables et à offrir aux recruteurs des perspectives d’activités concrètes. Pour faire venir des individus, de nombreux employeurs utilisent des systèmes d’annonces algorithmiques et des tableaux de tâches pour arriver probablement aux demandeurs d’emploi les plus «pertinents». Ces systèmes, qui assurent aux employeurs une consommation plus importante des budgets de dépenses d’emploi, font généralement des prophéties très superficielles: ils ne prévoient pas qui peut réussir dans la partie, mais qui est le plus susceptible de cliquer simplement sur cette offre d’emploi. Ces prévisions peuvent conduire les annonces de tâches à être diffusées d’une manière qui prenne en charge les stéréotypes sexuels et raciaux, même si les organisations n’ont pas ce genre d’intention. Lors de recherches menées conjointement avec des collègues de Northeastern School et de USC, nous avons notamment découvert que des publicités très ciblées sur Facebook ou Twitter pour des placements dans des caisses d’épiceries étaient en réalité montrées à 85% de femmes, séminaire bien que Les entreprises ont visité une foule composée à 75% de couleur noire. Cela peut être une situation quintessentielle d’un algorithme reproduisant les biais de la vie réelle, sans la nécessité d’une implication de l’homme. D’autre part, des conseils de travail individualisés, tels que ZipRecruiter, tentent de comprendre instantanément les préférences personnelles des recruteurs et utilisent ces estimations pour recruter des personnes comparables.

À l’instar de Facebook, ces systèmes de recommandation sont spécialement conçus pour obtenir et reproduire les styles dans le comportement des utilisateurs finaux, en mettant à jour les prophéties de manière dynamique à mesure que les entreprises et les demandeurs d’emploi interagissent. Si la méthode remarque que les recruteurs affligent socialisent plus souvent avec des hommes de couleur blanche, elle pourrait très bien localiser les mandataires pour ces qualités (comme s’appeler Jared ou jouer activement à la crosse au lycée) et reproduire cette conception. Ce type d’impact indésirable peut se produire sans instruction spécifique et, pire encore, sans reconnaissance individuelle. Les techniques de localisation ne sont pas une surface d’imagination probable pour beaucoup d’individus quand ils se sentent «comme une formule d’algorithme d’embauche». Cependant, les sélections informatisées à ce stade précoce de l’entonnoir employé sont nombreuses. À titre d’exemple, le marché en ligne d’Amazon, abandonné au profit des femmes défavorisées, n’était pas un instrument de variété permettant d’évaluer des personnes réelles, mais un outil permettant de découvrir des candidats passifs à recruter pour les recruteurs. La recherche d’algorithmes n’engage peut-être pas ouvertement les individus, mais comme l’a suggéré une chercheuse autorisée, Pauline Kim, «ne pas informer les employés d’une option de travail peut être un obstacle très efficace» pour les personnes à la recherche d’un emploi. Ces outils électriques ne font peut-être pas généralement les gros titres dystopiques, mais ils jouent un rôle crucial dans la détermination des personnes pouvant accéder à la procédure de recrutement, que ce soit.