Facebook a banni des chercheurs étudiant la désinformation

C’est une histoire un peu compliquée, je vais essayer d’en rendre compte au mieux.

Une équipe de chercheurs de la New York University (NYU) ont créé une extension Chrome permettant de suivre les publicités politiques sur Facebook. Facebook leur avait déjà demandé d’arrêter cette extension avant la présidentielle de 2020, au prétexte qu’elle leur permettait de récolter des données personnelles d’utilisateurs. Les chercheurs ont refusé, car les données sur les publicités politiques que publie Facebook sont d’après eux incomplètes et imprécises – ce que je suis tout à fait prêt à croire.

Facebook a finalement mis sa menace à exécution et a bloqué les comptes des chercheurs en question la semaine dernière :

Comme je l’écrivais plus haut, je pense que c’est une situation très compliquée. On serait tenté de trouver la décision de Facebook choquante, et je partage dans une grande mesure cette opinion : les efforts de transparence de Facebook sont globalement pathétiques, et servent d’après moi surtout à gérer un problème d’image qu’à répondre aux vraies questions de société que les dérives de la plateforme génèrent.

Et pour le coup, voir Facebook bannir des chercheurs qui travaillent sur la désinformation ne peut qu’endommager encore un peu plus son image déjà très dégradée.

Il semblerait également que l’argumentaire de Facebook pour justifier cette décision (une réglementation de la FTC, l’autorité américaine qui régule les télécommunications au sens large) soit assez douteux, de l’avis de la FTC elle-même :

Mais. Et c’est un mais très substantiel. Je suis tenté de penser que Facebook a en réalité pris la bonne décision. La raison ? Cambridge Analytica, et sa fameuse fuite de données. Qui a récolté les données ayant permis à Cambridge Analytica de prospérer comme elle l’a fait ? Un… chercheur ! Qui avait moissonné des quantités de données personnelles, en apparence avec des intentions tout à fait pacifiques.

Facebook avait à l’époque été critiquée (et à mon avis, à juste titre) d’avoir laissé ses données aussi facilement accessibles, et il me semble que l’on peut difficilement leur demander d’être plus strict d’un côté, et de les critiquer quand ils sont… plus stricts !

Pour autant, la situation actuelle n’est pas satisfaisante. Il est nécessaire de faire de la recherche sur la désinformation sur Facebook – et sur les autres plateformes. Mais pour éviter un nouveau Cambridge Analytica, il me semble nécessaire que cette recherche soit encadrée. Par exemple, que les données ne puissent pas quitter Facebook, tout en restant accessibles à des personnes de confiance – ça se fait déjà en économie, par exemple avec certaines données de l’INSEE en France : elles sont accessibles, mais vous ne pouvez pas les télécharger car elles sont trop sensibles pour circuler librement dans la nature.

C’est le modèle de l’organisation de la recherche portant sur ces grandes plateformes qui doit être repensé. Parce qu’elles mêmes ne sont pas incitées à dire la vérité : comme les fabricants de tabac ont intérêt à masquer les effets néfastes du tabac sur la santé pour préserver son modèle économique, Facebook a tout intérêt à masquer les effets néfastes de sa plateforme pour préserver son modèle. D’où l’importance d’avoir des chercheurs indépendants pour mener ces recherches.

Et là, je pense qu’il n’y a pas de recette miracle : Facebook (ou Twitter ou YouTube) n’ouvrira pas ses portes par lui-même. C’est aux États d’intervenir, de la même manière qu’ils sont intervenus pour encadrer la recherche sur les molécules pharmaceutiques – afin d’éviter que les laboratoires ne publient que les données qui les arrangent… faisant ainsi courir un risque substantiel à la population. Il me semble que c’est un modèle de ce type qu’il faudrait émuler (et adapter) à ces grandes plateformes. Le statut quo ne me paraît pas être satisfaisant.