Le cauchemar de l'IA : Refus de logement pour une locataire modèle, une nouvelle ère de discrimination ?
2024-12-16
Auteur: Louis
Malgré un parcours impeccable de 17 ans de loyers réglés ponctuellement, une recommandation élogieuse de son précédent propriétaire et un soutien financier garantissant une partie de son loyer, Mary Louis a été victime d'un refus de logement par un système d'intelligence artificielle. En effet, elle a obtenu un score de 324 sur SafeRent, largement en dessous du seuil minimum de 443 exigé. Un long rapport de 11 pages n’a fourni aucune explication sur la manière dont ce score a été calculé ou les critères qui l'ont influencé.
« L’IA n’a pas conscience de ma situation réelle. Elle savait que j'avais eu des retards sur une carte de crédit, mais ignorait que j’ai toujours payé mon loyer à temps », a déploré Mary Louis. Cette opacité insupportable a incité la locataire à engager des poursuites judiciaires, bientôt rejointe par des centaines d'autres victimes issue des minorités, qui ont toutes été déboutées alors qu'elles présentaient des dossiers compétitifs.
Cette lutte juridique s'est avérée fructueuse : SafeRent a accepté de verser 2,3 millions de dollars aux plaignants et, surtout, a suspendu son système de scoring pendant cinq ans pour les bénéficiaires d'aides au logement. C’est une véritable victoire contre l'emprise grandissante des algorithmes dans nos vies. Todd Kaplan, l’un des avocats représentant les plaignants, a souligné que « la suppression du système de notation binaire permet enfin aux locataires de démontrer leur réelle valeur. »
La problématique de l'intelligence artificielle ne se limite pas simplement à ces algorithmes. Il est essentiel de rappeler que, pour qu'une IA soit qualifiée d'intelligente, elle doit être capable de résoudre des problèmes de manière originale. Pourtant, même les systèmes les plus puissants se montrent incapables de générations de solutions novatrices.
Les biais présents dans ces systèmes sont souvent hérités des données sur lesquelles ils sont entraînés. Cela signifie que si ces données contiennent des discriminations raciales ou des préjugés, les algorithmes risque de les reproduire. Une enquête a confirmé que l'utilisation d'algorithmes dans le domaine de la location peut entraîner des injustices et un manque d'équité, aggravant la discrimination systématique.
En effet, ce refus de Mary Louis ne représente pas un cas isolé, mais plutôt une tendance alarmante d'utilisation des algorithmes dans la prise de décision au sujet de la location. La lutte pour une plus grande transparence et responsabilité des systèmes d'IA est plus essentielle que jamais pour garantir que de telles injustices ne se reproduisent pas. Nous sommes à l'aube d’un nouveau combat pour la justice sociale à l’ère numérique!