updated 6:42 PM CET, Dec 5, 2016

Algorithmes malins

Sur internet, les algorithmes de recommandation ne font pas que suggérer des publicités qui nous poussent à l’achat. Ils reproduisent également des stéréotypes de genre et des discriminations tout en dévoilant aux annonceurs des données personnelles telle que l’orientation sexuelle, comme le révèlent deux études publiées récemment.

Naïvement on y avait cru au partage, à la communauté d’affinité qui rompait avec la sacro-sainte segmentation par sexe/âge/revenu chère au marketing et à la publicité qui pouvaient ainsi mieux nous cibler. On pensait enfin pouvoir se retrouver sur internet pour échanger en fonction de nos centres d’intérêt. Vraiment ? On y a cru un seul instant ? Ensuite, on nous a vendu le Big Data, susceptible de nous offrir du contenu taillé sur mesure, rien que pour nous… Le rêve en somme !

Redescendons sur terre, car derrière les algorithmes de recommandation qui proposent comme par magie des publicités qui nous seraient personnellement destinées, il y a des humains… qui reproduisent les stéréotypes du monde réel. C’est ce que révèlent deux études, l’une de la Carnegie Melon University et de l’International Computer Science Institute et l’autre menée par des chercheurs-euses de Microsoft en Inde et du Max Planck Institute for Software Systems en Allemagne. La première établit qu’un profil d’homme en recherche d’emploi était ciblé via Google Ads par des publicités pour des postes de direction bien rémunérés contrairement au profil de femme dans une situation similaire qui ne se verra suggérer que des annonces moins prestigieuses. C’est la soi-disant neutralité informatique qui est ici mise à mal.

La seconde étude pointe les mêmes dérapages plus un gros souci sur la confidentialité des données personnelles. Cette fois, les chercheurs-euses s’intéressent aux annonces publiées sur les comptes Facebook des particuliers. Si certaines informations de leur profil ne sont pas publiques, elles ne sont pas pour autant absolument privées. L’étude établit qu’il est assez simple de déterminer pour un annonceur l’orientation sexuelle d’un-e utilisateur-euse Facebook. Si les personnes qui cliquent sur les publicités de bar gay sont identifiées comme homo, des stratagèmes sont mis en place pour débusquer les gays qui n’ont pas cliqué sur ces pubs et qui n’ont pas rendu leur préférence sexuelle publique.  Ainsi certaines annonces sans rapport avec leur orientation (exemple, une offre pour un cursus d’infirmier-e en Floride) ne sont proposées qu’aux homosexuel-le-s et pas du tout aux hétéros. Dans ce cas, c’est moins le contenu de la publicité qui prime que l’information que récolte l’annonceur, à savoir la personne qui a cliqué dessus pourrait être homosexuelle. Ensuite d’autres recoupements permettront d’établir «identité» totale de la cible.

Pourquoi ne pas alors se demander si le gros coup de pub de Facebook qui a créé un filtre arc-en-ciel pour soi-disant fêter le mariage pour tous aux Etats-Unis n’était pas destiné à glaner ce type d’information sur les comptes qui l’auraient publié ? Combien de personnes LGBT ou non ont affiché leur soutien sans réfléchir ? Naïvement on a cru à la cause…

Photo © Profil Facebook de Mark Zuckerberg, CEO de Facebook