Mathew Honan s’est prêté à une expérience amusante, bien qu’un peu flippante, pour Wired, en likant tout ce qu’il voyait passer sur son Facebook pendant 48h, peu importe qu’il aime réellement ou pas, afin de voir de quelle manière cela affecterait le contenu de son News Feed.

See, Facebook uses algorithms to decide what shows up in your feed. It isn’t just a parade of sequential updates from your friends and the things you’ve expressed an interest in. In 2014 the News Feed is a highly-curated presentation, delivered to you by a complicated formula based on the actions you take on the site, and across the web. I wanted to see how my Facebook experience would change if I constantly rewarded the robots making these decisions for me, if I continually said, “good job, robot, I like this.” I also decided I’d only do this on Facebook itself—trying to hit every Like button I came across on the open web would just be too daunting. But even when I kept the experiment to the site itself, the results were dramatic.

[…]

My News Feed took on an entirely new character in a surprisingly short amount of time. After checking in and liking a bunch of stuff over the course of an hour, there were no human beings in my feed anymore. It became about brands and messaging, rather than humans with messages.

Likewise, content mills rose to the top. Nearly my entire feed was given over to Upworthy and the Huffington Post. As I went to bed that first night and scrolled through my News Feed, the updates I saw were (in order): Huffington Post, Upworthy, Huffington Post, Upworthy, a Levi’s ad, Space.com, Huffington Post, Upworthy, The Verge, Huffington Post, Space.com, Upworthy, Space.com.

Le résultat est sans appel. Si vous faites confiance à des robots pour vous instruire, vous informer, voir vous divertir mais que ces robots sont avant-tout programmés pour satisfaire des annonceurs et non pas vos propres envies, que pensiez-vous obtenir d’autre ? Pire, en distillant ces informations robotisées au milieu de celles plus humaines de vos vrais amis, n’orientent-elles pas subrepticement votre façon de penser, comme une propagande.

Tout ceci montre bien que nous vivons de plus en plus dans une bulle. Je l’ai déjà évoqué ici au sujet de Google, plusieurs fois même: Search is no longer Google’s core product, You are living in a Filter Bubble, A Google World. Et Mathew Honan, après seulement 48h, en arrive aux mêmes conclusions:

This is a problem much bigger than Facebook. It reminded me of what can go wrong in society, and why we now often talk at each other instead of to each other. We set up our political and social filter bubbles and they reinforce themselves—the things we read and watch have become hyper-niche and cater to our specific interests. We go down rabbit holes of special interests until we’re lost in the queen’s garden, cursing everyone above ground.

Évidemment, l’expérience est un peu extrême et exagérée. Vous vous dites qu’il ne vous viendrait jamais à l’idée de liker tout ce que vous lisez sur Facebook, que ça ne vous concerne pas et que cette étude n’a donc aucun sens. Sauf que l’on oublie bien trop souvent que le problème, ce n’est pas vous mais les autres. Tout ce que font vos amis sur FB a donc un impact sur votre contenu et ce qui apparaît dans votre News Feed. Et après tout, si ce sont vos amis, les robots de FB ont toutes les raisons de croire que vous avez les mêmes goûts et partagez les mêmes idées.

While I expected that what I saw might change, what I never expected was the impact my behavior would have on my friends’ feeds. I kept thinking Facebook would rate-limit me, but instead it grew increasingly ravenous. My feed become a cavalcade of brands and politics and as I interacted with them, Facebook dutifully reported this to all my friends and followers.

#web — #  #  #

Ajouter un commentaire

Return button