Sans Franck M

3 décembre 2019

Recruté par ordinateur

Filed under: Non classé — 100franckm @ 11 h 17 min

Est-ce que l’utilisation des services de techniques arrête le biais, ou le renforce? Ce simple problème est devenu un motif de tension entre les partisans de la technologie et ses sceptiques, mais trouver la réponse est plus compliqué qu’il n’apparaît. L’utilisation des services de est rarement un choix individuel, mais l’aboutissement d’un certain nombre de petits jugements séquentiels. Les algorithmes remplissent différents rôles au moyen de cette méthode: certains orientent les annonces de tâches vers certaines personnes, tandis que d’autres indiquent des perspectives indirectes d’embauche. Les instruments prédictifs analysent et notent les CV, et aident les responsables de la sélection à évaluer les compétences des candidats de nouvelles façons, en utilisant chacune des données classiques et uniques. Plusieurs pensent que des ensembles de règles peuvent aider le choix de l’homme: les fabricants évitent leurs propres préjugés personnels en ajoutant de la régularité à la procédure d’emploi. Mais les algorithmes introduisent de nouveaux risques qui leur appartiennent. Ils peuvent reproduire des biais institutionnels et historiques, amplifiant les inconvénients cachés dans des facteurs de données tels que la fréquentation d’un collège ou les classements d’évaluation de la fonctionnalité.

Que les algorithmes éliminent une part de subjectivité de l’utilisation des services de processus, les êtres humains continuent d’être grandement associés aux décisions d’embauche finales. Les arguments qui définissent des ensembles de règles «objectifs» comme étant plus justes et plus précis que des êtres humains faillibles négligent de noter pleinement que, dans de nombreux cas, jouent également un rôle. Pour comprendre les biais liés à l’utilisation des services d’un ensemble de règles et de moyens de les atténuer, nous devons apprendre comment les technologies prédictives fonctionnent à chaque étape de la procédure de sélection. Même s’ils partagent souvent les bases de la compréhension de l’unité, les ressources utilisées auparavant peuvent être fondamentalement meilleures que celles utilisées plus tard. Même les outils qui semblent effectuer exactement le même processus peuvent s’appuyer sur des informations de types totalement différents, ou sur des estimations existantes selon des méthodes radicalement différentes. Notre examen des ressources prédictives tout au long de l’approche de sélection aide vraiment à clarifier ce que font exactement les «algorithmes de recrutement», et comment et où un biais peut entrer dans la méthode. Malheureusement, nous avons constaté que la plupart des algorithmes de sélection dériveraient automatiquement vers les préjugés. Bien que leur contribution potentielle à la réduction des préjugés sociaux ne doive pas être réduite, seules les ressources qui s’attaquent de manière proactive à des disparités plus profondes vous permettront d’espérer que la technologie moderne prédictive contribuera à encourager la valeur nette de la maison, au lieu de l’éroder. L’utilisation des services de processus commence bien avant qu’un demandeur d’emploi ne soumette un logiciel.

Au stade du «sourcing» ou de l’embauche, aide prédictive à l’innovation technologique destinée à promouvoir les possibilités d’emploi, informe les demandeurs d’emploi sur les emplois les plus susceptibles de plaire, et propose aux employeurs potentiels des candidats potentiels à la surface. Pour attirer des individus, de nombreuses entreprises utilisent des programmes d’annonces algorithmiques et des panneaux de tâches pour atteindre les chercheurs d’emploi les plus «pertinents». Ces méthodes, qui promettent aux entreprises une meilleure utilisation des budgets de dépenses de recrutement, produisent généralement des estimations remarquablement superficielles: elles ne prédisent pas qui peut réussir dans le poste, mais qui cliquera probablement simplement sur cette offre d’emploi. Ces prévisions font souvent en sorte que les offres d’emploi soient fournies de manière à soutenir les stéréotypes sexuels et raciaux, même lorsque les entreprises n’ont pas ce genre d’intention. Dans une recherche que nous avons menée récemment avec des collègues de la Northeastern University ou d’un collège et de l’USC, nous avons notamment constaté que les annonces généralement ciblées sur Facebook ou sur MySpace pour des postes de caissiers sur le marché alimentaire avaient été prouvées devant un public composé de 85% de femmes. avec les compagnies de taxi ont accompagné les téléspectateurs qui avaient été environ 75% de couleur noire. C’est vraiment une circonstance parfaite de votre algorithme reproduisant les préjugés du monde réel, sans implication humaine. Entre-temps, des panneaux de tâches personnalisés tels que ZipRecruiter tentent de comprendre automatiquement les préférences des recruteurs et utilisent toutes ces estimations pour solliciter des personnes similaires.

À l’instar de Facebook, ces systèmes de recommandation sont spécialement conçus pour obtenir et reproduire les styles dans le comportement des utilisateurs finaux, en mettant à jour les prophéties de manière dynamique à mesure que les entreprises et les demandeurs d’emploi interagissent. Si la méthode remarque que les recruteurs affligent socialisent plus souvent avec des hommes de couleur blanche, elle pourrait très bien localiser les mandataires pour ces qualités (comme s’appeler Jared ou jouer activement à la crosse au lycée) et reproduire cette conception. Ce type d’impact indésirable peut se produire sans instruction spécifique et, pire encore, sans reconnaissance individuelle. Les techniques de localisation ne sont pas une surface d’imagination probable pour beaucoup d’individus quand ils se sentent «comme une formule d’algorithme d’embauche». Cependant, les sélections informatisées à ce stade précoce de l’entonnoir employé sont nombreuses. À titre d’exemple, le marché en ligne d’Amazon, abandonné au profit des femmes défavorisées, n’était pas un instrument de variété permettant d’évaluer des personnes réelles, mais un outil permettant de découvrir des candidats passifs à recruter pour les recruteurs. La recherche d’algorithmes n’engage peut-être pas ouvertement les individus, mais comme l’a suggéré une chercheuse autorisée, Pauline Kim, «ne pas informer les employés d’une option de travail peut être un obstacle très efficace» pour les personnes à la recherche d’un emploi. Ces outils électriques ne font peut-être pas généralement les gros titres dystopiques, mais ils jouent un rôle crucial dans la détermination des personnes pouvant accéder à la procédure de recrutement, que ce soit.

Pas de commentaire

No comments yet.

RSS feed for comments on this post.

Sorry, the comment form is closed at this time.

Powered by WordPress