Les cotes de crédit et les biais qui les sous-tendent

Bien que votre pointage de crédit soit généré à partir de données vous concernant, la conception des algorithmes derrière le pointage est souvent basée sur des tendances financières plus larges.

“Souvent, les cotes de crédit sont construites sur l’historique de toutes sortes d’autres données agrégées, donc les gens qui vous ressemblent”, a déclaré Safia Nobleprofesseur d’études de genre et d’études afro-américaines à l’Université de Californie à Los Angeles.

Noble, qui a écrit le livre “Algorithmes de l’oppression”, étudie comment les algorithmes peuvent perpétuer le racisme et les préjugés sexistes.

“Et c’est là que nous commençons à avoir des ennuis”, a déclaré Noble. “Si vous faites partie d’un groupe qui s’est traditionnellement vu refuser un crédit ou s’est vu proposer des produits prédateurs, alors votre profil peut, en fait, ressembler davantage à ces personnes et vous serez sonné.”

Par conséquent, les consommateurs pourraient ne pas avoir accès à un prêt, à une hypothèque ou à de meilleurs taux d’assurance.

David Silberman, chercheur principal au Centre de crédit responsablea déclaré que cela faisait partie d’un problème plus vaste.

“Les cotes de crédit reflètent beaucoup l’histoire de la discrimination dans le pays”, a-t-il déclaré.

Silberman, qui a passé une décennie au Consumer Financial Protection Bureau et des années dans le secteur des services financiers, a réfléchi à la façon dont les algorithmes peuvent refléter privilège, ou son absence.

“Si quelqu’un commence sans richesse, avec des perspectives de revenus limitées, les types de crédit que vous pouvez obtenir seront affectés”, a-t-il déclaré.

Par exemple, les prêteurs sur salaire se concentrent dans les quartiers afro-américains et latinos et ont tendance à proposer des prêts à des conditions moins favorablesde sorte que les emprunteurs qui utilisent ces prêteurs pourraient être plus susceptibles de faire défaut.

“Votre capacité à rembourser ce crédit va être affectée, et cela va ensuite se retrouver dans les cotes de crédit”, a déclaré Silberman.

Selon le processeur de paiement Shift, les Américains blancs ont un score FICO moyen de 734 – un score relativement bon pour la plupart des produits financiers. Mais pour les Noirs américains, c’est 677. Un score inférieur peut équivaloir à des taux d’intérêt plus élevés ou entraîner le refus d’un prêt.

Étant donné que des données historiques précises peuvent toujours créer des algorithmes biaisés, de nombreux chercheurs et entreprises recherchent de nouvelles options pour déterminer la solvabilité, mais cela peut également être risqué.

Nicolas Schmidt, PDG de SolasAI, vérifie les algorithmes pour un impact disparate. Il a dit que les préjugés peuvent “s’infiltrer” n’importe où.

« La plupart des gens parlent de biais dans les données. Et c’est un peu une chose évidente », a-t-il déclaré.

Un exemple qu’il a partagé était un algorithme de prêteur pour évaluer le risque de crédit associé aux personnes qui ne payaient pas la dette de carte de crédit. Il a déclaré que le meilleur prédicteur était la fréquence à laquelle les consommateurs achetaient dans les dépanneurs.

Patron Convenience Store dans le sud-est de Washington, DC (Kimberly Adams/Marketplace)

Dans les stations-service ou les centres commerciaux, même dans les magasins autonomes comme Patron Convenience Store dans le sud-est de DC, il peut y avoir beaucoup de monde le mercredi matin, les gens achetant des billets de loterie et des collations.

« Et j’y ai pensé. Qu’est-ce qu’on trouve dans un dépanneur – de la bière bon marché, des cigarettes, des mauvais bonbons et des billets de loterie ? » dit Schmidt. “Ceux-ci sont probablement tous assez bien corrélés avec un comportement à risque, qui est probablement bien corrélé avec de mauvais résultats de carte de crédit.”

Mais ensuite, Schmidt et son équipe y ont réfléchi un peu plus et ont réalisé qu’il y avait un trou béant dans cette analyse : les déserts alimentaires. Ce sont des zones où les résidents sont à faible revenu et n’ont pas facilement accès aux supermarchés ou aux grandes épiceries, selon le département américain de l’agriculture.

En 2021, environ 13,5 millions de personnes vivaient dans les déserts alimentaires américains – et beaucoup d’entre elles faisaient leurs courses dans des dépanneurs.

Ekram Aman est caissier au Penn Way Market, un dépanneur dans un centre commercial situé dans un désert alimentaire du sud-est de Washington, DC

Ekram Aman pose à côté d'une étagère de
Ekram Aman travaille comme caissier au Penn Way Market dans le sud-est de Washington, DC (Kimberly Adams/Marketplace)

Elle a déclaré que la plupart de ses clients utilisent le transfert électronique des avantages, un outil pour accéder aux programmes gouvernementaux d’aide alimentaire, pour acheter des produits d’épicerie.

« Ils disent parce que c’est pratique pour eux. Et surtout pour les personnes qui ne conduisent pas, c’est très pratique », a déclaré Aman.

La plupart des clients viennent du quartier et marchent jusqu’à Penn Way, a-t-elle déclaré. Parfois, ils envoient leurs enfants chercher de la nourriture pour le dîner ou certains articles ménagers emballés dans les étagères du magasin étroit.

Schmidt de SolasAI a déclaré que l’utilisation des données générées de cette manière est une forme de discrimination qui pourrait s’infiltrer lorsqu’un algorithme regroupe toutes ces personnes.

“Ce que vous allez faire, c’est capturer le comportement à risque des Blancs dans les banlieues, qui vont dans les dépanneurs et achètent des billets de loterie et de mauvais bonbons et de la mauvaise bière”, a-t-il déclaré.

Mais, a déclaré Schmidt, vous allez également capturer des personnes solvables dans les villes, des personnes à faible revenu et des personnes de couleur, mais aussi des personnes plus riches dans des villes denses qui font leurs achats dans des bodegas.

Schmidt ne sait pas si cette variable particulière s’est retrouvée dans le modèle final d’un prêteur, car les entreprises de services financiers ajustent souvent leurs modèles pour tenir compte des biais intégrés.

Mais, a déclaré David Silberman du Center for Responsible Lending, ces algorithmes ne peuvent pas faire grand-chose.

“Il peut y avoir des ajustements qui, à la marge, amèneront plus de personnes dans le système ou donneront une image plus complète de leur solvabilité en examinant un ensemble de données plus riche”, a-t-il déclaré. « Mais je pense que c’est marginal. Cela ne réglera pas les problèmes fondamentaux d’inégalité auxquels nous devons faire face.

Facebook
Twitter
LinkedIn
Pinterest

Leave a Reply

Your email address will not be published.

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT