Découvrez Bulletin d’Espalion en illimité Découvrir les offres

numérique. «Facebook Papers» : les algorithmes devenus fous

Actualité.

numérique. «Facebook Papers» : les algorithmes devenus fous

Fin octobre, Facebook a vu une partie de ses dossiers confidentiels publiée dans la presse. France Haugen, ancienne cadre chez le géant américain, a en effet décidé d’attaquer son employeur pour "avoir trahi la démocratie". Si les motifs qui ont poussé la jeune femme à aller en justice sont assez flous, son action a permis de faire parvenir aux journalistes des dizaines de notes internes qui alertaient le conseil d’administration du groupe sur le fait que les algorithmes étaient désormais hors de contrôle !
Depuis 2018, la stratégie de la plateforme consiste à réorienter le contenu vu par ses utilisateurs vers leur cercle proche (famille ou "amis Facebook"). Sauf que ce choix stratégique n’a pas eu du tout l’effet recherché. Il a conduit à inonder les utilisateurs de contenus non désirés : incitations à la polémique, discours de haine, propagande complotiste amplifiée par la crise de la covid-19…
Facebook — comme l’ensemble des plateformes numériques — ne modère pas le contenu de ses pages en faisant appel à des humains, mais en se basant sur des algorithmes dits intelligents. Ces algorithmes ont pour mission de mettre en valeur les publications des cercles proches des utilisateurs. Mais les développeurs desdits algorithmes expliquent que leurs créatures échappent à tout contrôle : ils apprennent par eux-mêmes en prenant appui sur la masse de données personnelles qui sont à leur portée — on parle de machine learning — et relaient les messages qui leur paraissent les plus "efficaces", sans aucun filtre.
La plateforme a réagi à ces attaques en expliquant que plus de 13 milliards de dollars ont été investis pour lutter contre les contenus dangereux. À quoi Mme Haugen répond que ces investissements ont eu lieu en grande majorité sur du contenu en langue anglaise, laissant de facto le reste au bon vouloir des algorithmes. Ce qui a permis aux messages djihadistes en langue arabe de circuler assez librement ou au contenu pornographique venu d’Asie de se retrouver sur la "page d’accueil" de millions d’utilisateurs.
Cette énième affaire touchant la société de M. Zuckerberg pourrait nous laisser de marbre, tant la firme est connue pour ses scandales à répétition (Cambridge Analytica, les "fermes de bots" pro-Trump, etc). Mais nous sommes maintenant en face d’un sujet qui dépasse le cadre de la protection des données. On touche à l’éthique, avec des algorithmes qui n’ont plus besoin de l’homme et qui ont des comportements dangereux. On peut d’ores et déjà avancer que l’algorithmie a dépassé les attentes de l’humanité et qu’elle sera en capacité de s’autoentretenir assez rapidement.
Plusieurs solutions s’offrent à nous. La première est du domaine de la loi : la représentation nationale devrait légiférer sur les limites que les géants privés du net peuvent atteindre en termes de domaines d’action. La seconde relève du droit international : interdire aux GAFAM et autres monstres numériques chinois de capter et d’utiliser des données sensibles, ce qui permettrait d’assécher les énormes bases de données qui nourrissent les algorithmes et de les empêcher de s’immiscer dans certains domaines, comme la santé, la défense ou le fonctionnement des infrastructures.
La recrudescence de ce genre d’épisodes questionne sur l’impact qu’ont aujourd’hui les géants du numérique sur nos vies et sur la place qu’on leur a laissé. A-t-on été trop loin ? Sans doute.

Newsletter

Restez informé ! Recevez des alertes pour être au courant de toutes les dernières actualités.
Réagir à cet article

L'espace des commentaires est ouvert aux inscrits.
Connectez-vous ou créez un compte pour pouvoir commenter cet article.

Abonnez vous au Bulletin Espalion
Inscrivez vous à la newsletter
La météo locale
numérique. «Facebook Papers» : les algorithmes devenus fous