En septembre dernier, le Wall Street Journal divulgue des milliers de documents confidentiels sur Facebook. Exfiltrés par la lanceuse d’alerte Frances Haugen, ils pointent le manque de transparence de la firme. L’enquête vient de révéler que les algorithmes sont devenus hors de contrôle pour les modérateurs.
Il avait pour but de faciliter la vie des êtres humains et de mieux les connaître: cibler leurs goûts, leurs appétences et leurs aversions. L’algorithme, une intelligence artificielle auxiliaire, omnisciente, révolutionnaire. Celui de Facebook détermine ce que près de 3 milliards d’utilisateurs voient quotidiennement. Il est aujourd’hui devenu hors de contrôle, y compris pour ceux qui l’ont développé. Aux Etats-Unis, des ingénieurs s’insurgent de voir que certains groupes politiques continuent d’être recommandés aux utilisateurs. En Inde, des vidéos pornographiques sont exhibées dans l’onglet « Watch ».
À de multiples reprises, certains employés de Facebook ont fait part de leur incompréhension face au dysfonctionnement de leur propre code informatique. Déferlante de messages haineux, effusion de théories conspirationnistes, campagne de désinformation massive: les dégâts causés par la faille du système abondent. Facebook risque de devenir un royaume hostile où conteurs de fake news et complotistes règnent en maîtres.
La partie émergée de l’iceberg
L’onde de choc a été lancée par Frances Haugen. Un autre coup de massue asséné à Facebook, après la panne historique qui a fragilisé l’entreprise début octobre. Ancienne salariée du groupe au service « intégrité civique », Frances Haugen est le visage derrière les Facebook Files. En mai dernier, elle quitte le géant californien avec des milliers de documents internes qu’elle confie au Wall Street Journal. Révélés au grand public par les médias internationaux, ces papiers confidentiels défrichent le champ broussailleux qu’est devenu « EdgeRank », l’ancien nom de l’algorithme de Facebook.
Le point névralgique remonte à 2018. Cette année-là, la firme mise sur les « interactions sociales significatives ». Une stratégie qui consiste à renforcer les interactions avec le cercle de proches plutôt qu’avec des pages aux titres racoleurs. Le projet est en grande partie un échec. Il a surtout renforcé la diffusion des deep reshares, des contenus complotistes et d’extrême-droite partagés par des comptes de particuliers.
Facebook a eu quinze ans pour démontrer que les algorithmes de classement des contenus en fonction de l’engagement peuvent être conçus de manière responsable ; s’ils n’ont pas réussi à le faire jusqu’à présent, ils n’y arriveront jamais.
Roddy Lindsay
L’algorithme chargé de classer les contenus qui s’affichent dans le fil d’actualité est au coeur du problème. Ces messages ont un score, variable selon plusieurs facteurs : le nombre d’abonnés ou encore l’intérêt que les « amis » d’un utilisateur ont manifesté pour un sujet. Les ingénieurs modulent régulièrement les algorithmes, ajoutent des critères plus ciblés pour les rendre plus performants à chaque nouvelle version. Plus ce score est élevé, plus il a des chances d’apparaître dans le fil d’actualités. Or, avec l’accumulation de ces nouveaux critères ajoutés par les ingénieurs, le score moyen d’un message a drastiquement augmenté. Dans un des documents, un analyste anonyme constate que pour certains contenus, le score « peut dépasser 1 milliard ». Avec un chiffre aussi élevé, les outils de modération deviennent totalement inefficaces. Les messages les plus dangereux peuvent passer entre les mailles du filet. Modérateurs et ingénieurs se retrouvent pris au piège.
L’appât du gain, le nerf de la guerre
L’entreprise de Mark Zuckerberg, poussée dans ses retranchements, balaie fébrilement la polémique. Elle reconnaît que ses algorithmes sont devenus des outils indéchiffrables, mais s’enorgueillit de les modifier régulièrement pour les perfectionner. Un ancien ingénieur du groupe, Roddy Lindsay, donne un avis plus tranché. Dans une tribune publiée en juin dans le New York Times, il regrette que « Facebook [ait] eu quinze ans pour démontrer que les algorithmes de classement des contenus en fonction de l’engagement peuvent être conçus de manière responsable ; s’ils n’ont pas réussi à le faire jusqu’à présent, ils n’y arriveront jamais. » Les détracteurs, avec Frances Haugen en cheffe de file, sont encore plus virulents. Début octobre, lors de son audience tenue au Congrès américain, elle accuse l’entreprise de privilégier l’appât du gain, au détriment de la morale et de l’éthique.
Dans une longue tirade postée sur son réseau social, Mark Zuckerberg tente de sauver son entreprise de la noyade: « Beaucoup de ces affirmations n’ont aucun sens. […] Si nous ne nous ne luttions pas contre la propagation de contenus préjudiciables, pourquoi emploierions-nous plus de personnes qui s’y consacrent plus que n’importe quelle autre entreprise de notre secteur ? » Les sénateurs attendent maintenant qu’il réponde à leurs questions devant le tribunal.
À lire aussi : Glen Friedman, photographe générationnel