Facebook va modifier ses algorithmes pour empêcher la publicité discriminatoire en matière de logement et sa société mère se soumettra à un contrôle judiciaire pour régler un procès intenté mardi par le ministère américain de la Justice.
Dans un communiqué, des responsables du gouvernement américain ont déclaré que Meta, anciennement connu sous le nom de Facebook, était parvenu à un accord pour régler le procès intenté le même jour devant le tribunal fédéral de Manhattan.
Selon les termes du règlement, Facebook cessera d’utiliser un outil publicitaire pour les annonces immobilières qui, selon le gouvernement, employait un algorithme discriminatoire pour localiser les utilisateurs qui “ressemblent” à d’autres utilisateurs sur la base de caractéristiques protégées par la loi sur le logement équitable, a déclaré le ministère de la Justice. D’ici le 31 décembre, Facebook doit cesser d’utiliser l’outil autrefois appelé « Lookalike Audience », qui repose sur un algorithme qui, selon les États-Unis, discrimine sur la base de la race, du sexe et d’autres caractéristiques.
Facebook développera également un nouveau système au cours du prochain semestre pour lutter contre les disparités raciales et autres causé par son utilisation d’algorithmes de personnalisation dans son système de diffusion d’annonces immobilières, a-t-il déclaré.
Selon le communiqué, il s’agissait de la première affaire du ministère de la Justice contestant la discrimination algorithmique en vertu de la loi sur le logement équitable. Facebook sera désormais soumis à l’approbation du ministère de la Justice et à la surveillance des tribunaux pour son système de ciblage et de diffusion des publicités.
L’avocat américain Damian Williams a qualifié le procès de “révolutionnaire”. La procureure générale adjointe Kristen Clarke l’a qualifiée d'”historique”.
Ashley Settle, porte-parole de Facebook, a déclaré dans un e-mail que l’entreprise “construisait une nouvelle méthode d’apprentissage automatique sans notre système de publicité qui changera la façon dont les annonces immobilières sont diffusées aux personnes résidant aux États-Unis dans différents groupes démographiques”.
Elle a déclaré que la société étendrait sa nouvelle méthode aux annonces liées à l’emploi et au crédit aux États-Unis. “Nous sommes ravis d’être les pionniers de cet effort”, a ajouté Settle dans un e-mail.
Williams a déclaré que la technologie de Facebook avait dans le passé violé le Fair Housing Act en ligne “tout comme lorsque les entreprises se livrent à des publicités discriminatoires en utilisant des méthodes publicitaires plus traditionnelles”.
Clarke a déclaré que “les entreprises comme Meta ont la responsabilité de s’assurer que leurs outils algorithmiques ne sont pas utilisés de manière discriminatoire”.
L’annonce intervient après que Facebook a déjà accepté en mars 2019 de réviser ses systèmes de ciblage publicitaire pour prévenir la discrimination dans les annonces de logement, de crédit et d’emploi dans le cadre d’un règlement juridique avec un groupe comprenant l’American Civil Liberties Union, la National Fair Housing Alliance et d’autres. .
Les changements annoncés alors ont été conçus pour que les annonceurs qui souhaitaient diffuser des annonces immobilières, d’emploi ou de crédit ne soient plus autorisés à cibler les personnes par âge, sexe ou code postal.
Le ministère de la Justice a déclaré mardi que le règlement de 2019 réduisait les options de ciblage potentiellement discriminatoires disponibles pour les annonceurs, mais ne résolvait pas d’autres problèmes, notamment la diffusion discriminatoire par Facebook d’annonces immobilières via des algorithmes d’apprentissage automatique.