Faire une véritable politique étrangère

Nous pensons que la théorie construite sur cette hypothèse est de loin supérieure à l’alternative. les indigènes. Il fournit une base solide à partir de laquelle expliquer des décisions spécifiques et peut servir de base sur laquelle construire une compréhension générale des modèles politiques d’un État donné au fil du temps. Le plus important, cela conduit à un grand nombre d’hypothèses testables. Beaucoup d’entre eux sont surprenants; beaucoup sont uniques à cette par- théorie particulière et bénéficient de nombreux appuis empiriques. Nos efforts dans ce livre visent à convaincre nos lecteurs de ces points. Notre théorie est mathématique et les hypothèses sont formellement dérivées. Nous soumettons beaucoup d’hypothèses à des tests statistiques. Nous avons essayé de rendre ce livre accessible possible à un large lectorat, donc le premier semestre est présenté de manière non mode technique. La version formelle de la théorie est présentée au chapitre 5, mais nous présentez d’abord une version intuitive au chapitre 2. Les chapitres 3 et 4 sont consacrés à montrant que la théorie peut fournir une base conceptuelle utile à partir de laquelle rédiger et comprendre les événements réels de la politique étrangère. Nous fournissons un compte des États-Unis. politique étrangère depuis la Seconde Guerre mondiale, une explication des décisions de la Nouvelle-Zélande effectivement mis fin à l’accord de défense entre l’Australie, la Nouvelle-Zélande et les États-Unis (ANZUS), une explication des décisions bolcheviques menant à la traité de Brest-Litovsk et un compte rendu de l’évolution de la structure de la société chinoise police étrangère. Aux chapitres 6 et 7, nous présentons les résultats d’un certain nombre de statistiques tests des hypothèses de la théorie. Nous espérons que cela fournit un cas convaincant que notre théorie est exceptionnellement riche et utile. En fin de compte, nous espérons avoir accompli plusieurs choses. Premièrement, nous espérons avoir développé une théorie utile, fructueuse et générale de la politique étrangère comaparative. nous sérieusement envisagé de titrer ce livre « Une théorie de la politique étrangère comparée », mais nous avons l’impression forte que nos ventes en souffriraient, car la plupart des Les spécialistes des relations internationales considèrent cela comme un champ mort. CA ne devrait pas être. Beaucoup peut être appris en cherchant des schémas généraux dans les politiques étrangères.

Recruté par algorithme

L’utilisation des services d’ensembles de règles protège-t-elle contre les préjugés ou les améliore-t-elle? Cette question essentielle est apparue comme un motif d’inquiétude pour les partisans de la technologie ainsi que pour ses sceptiques, mais il est plus compliqué d’y parvenir que de donner la bonne réponse. L’emploi n’est presque jamais un choix individuel, mais plutôt l’aboutissement d’une série de choix plus petits et séquentiels. Les techniques jouent des emplois distincts tout au long de cette technique: certaines orientent les offres d’emploi vers un certain nombre de candidats potentiels, tandis que d’autres désignent des personnes indirectes pour le recrutement. L’analyse prédictive des instruments et la cote de crédit reprennent, et aident les superviseurs à employer à examiner les compétences des prospects de manière nouvelle, en utilisant les deux informations classiques et uniques. Beaucoup pensent que les algorithmes peuvent aider les décisionnaires humains à prévenir leurs propres préjugés en ajoutant de la persistance à l’approche de recrutement. Mais les algorithmes apportent de nouveaux dangers. Ils sont capables de dupliquer des biais institutionnels et antiques, amplifiant les inconvénients cachés dans les détails de données tels que la fréquentation universitaire ou les évaluations d’analyse de performance.

Que les algorithmes éliminent une part de subjectivité de l’utilisation des services de processus, séminaire les êtres humains continuent d’être grandement associés aux décisions d’embauche finales. Les arguments qui définissent des ensembles de règles «objectifs» comme étant plus justes et plus précis que des êtres humains faillibles négligent de noter pleinement que, dans de nombreux cas, jouent également un rôle. Pour comprendre les biais liés à l’utilisation des services d’un ensemble de règles et de moyens de les atténuer, nous devons apprendre comment les technologies prédictives fonctionnent à chaque étape de la procédure de sélection. Même s’ils partagent souvent les bases de la compréhension de l’unité, les ressources utilisées auparavant peuvent être fondamentalement meilleures que celles utilisées plus tard. Même les outils qui semblent effectuer exactement le même processus peuvent s’appuyer sur des informations de types totalement différents, ou sur des estimations existantes selon des méthodes radicalement différentes. Notre examen des ressources prédictives tout au long de l’approche de sélection aide vraiment à clarifier ce que font exactement les «algorithmes de recrutement», et comment et où un biais peut entrer dans la méthode. Malheureusement, nous avons constaté que la plupart des algorithmes de sélection dériveraient automatiquement vers les préjugés. Bien que leur contribution potentielle à la réduction des préjugés sociaux ne doive pas être réduite, seules les ressources qui s’attaquent de manière proactive à des disparités plus profondes vous permettront d’espérer que la technologie moderne prédictive contribuera à encourager la valeur nette de la maison, au lieu de l’éroder. L’utilisation des services de processus commence bien avant qu’un demandeur d’emploi ne soumette un logiciel.

Au cours de la période de «recrutement» ou de recrutement, les technologies prédictives aident à commercialiser les emplois disponibles, alertent les demandeurs d’emploi sur les rôles potentiellement souhaitables et ouvrent des perspectives potentielles aux recruteurs pour une portée positive. Pour attirer les candidats, de nombreuses organisations utilisent des systèmes de publicité algorithmiques et des tableaux de bord pour parvenir de loin aux demandeurs d’emploi les plus «pertinents». Ces solutions, qui garantissent aux entreprises une utilisation plus efficace des ressources financières en matière d’embauche, produisent souvent des prévisions très superficielles: elles ne prédisent pas qui obtiendra le succès dans la fonction, mais qui cliquera probablement tout simplement sur cette tâche. Ces prophéties peuvent conduire les annonces de travail à être diffusées d’une manière qui prenne en charge les stéréotypes sexistes et raciaux, même si les entreprises n’ont pas ce genre d’objectif. Dans une étude récente que nous avons menée avec des collègues de Northeastern School et de USC, nous avons découvert, entre autres choses, que les publicités généralement ciblées sur Facebook ou Twitter pour des placements dans des caisses d’épicerie étaient effectivement montrées à un public de 85% de filles, lorsque des tâches de taxi les entreprises ont visité un public composé à 75% de couleur noire. C’est un cas typique de tout algorithme reproduisant un biais du monde réel, sans implication humaine. Dans le même temps, des forums de travail personnalisés, tels que ZipRecruiter, tentent de comprendre immédiatement les choix des recruteurs et utilisent toutes ces prophéties pour obtenir des personnes très similaires.

À l’instar de Facebook, ces systèmes de recommandation sont spécialement conçus pour obtenir et reproduire les styles dans le comportement des utilisateurs finaux, en mettant à jour les prophéties de manière dynamique à mesure que les entreprises et les demandeurs d’emploi interagissent. Si la méthode remarque que les recruteurs affligent socialisent plus souvent avec des hommes de couleur blanche, elle pourrait très bien localiser les mandataires pour ces qualités (comme s’appeler Jared ou jouer activement à la crosse au lycée) et reproduire cette conception. Ce type d’impact indésirable peut se produire sans instruction spécifique et, pire encore, sans reconnaissance individuelle. Les techniques de localisation ne sont pas une surface d’imagination probable pour beaucoup d’individus quand ils se sentent «comme une formule d’algorithme d’embauche». Cependant, séminaire les sélections informatisées à ce stade précoce de l’entonnoir employé sont nombreuses. À titre d’exemple, le marché en ligne d’Amazon, abandonné au profit des femmes défavorisées, n’était pas un instrument de variété permettant d’évaluer des personnes réelles, mais un outil permettant de découvrir des candidats passifs à recruter pour les recruteurs. La recherche d’algorithmes n’engage peut-être pas ouvertement les individus, mais comme l’a suggéré une chercheuse autorisée, Pauline Kim, «ne pas informer les employés d’une option de travail peut être un obstacle très efficace» pour les personnes à la recherche d’un emploi. Ces outils électriques ne font peut-être pas généralement les gros titres dystopiques, mais ils jouent un rôle crucial dans la détermination des personnes pouvant accéder à la procédure de recrutement, que ce soit.