Last Updated:

Un dirigeant de Facebook déclare : nous avons fait élire Trump, et nous ne devrions pas l'arrêter en 2020

Pierre
Pierre Facebook

Dans une note de service obtenue par le New York Times et affichée publiquement, un dirigeant de Facebook affirme que la plateforme de l'entreprise est responsable de l'élection de Donald Trump à la présidence en 2016, mais il met en garde les employés contre l'utilisation du pouvoir de l'entreprise pour empêcher la réélection de Trump en 2020.

Dans la note de service, Andrew Bosworth, l'une des voix les plus importantes de l'entreprise, a partagé avec les employés quelques "réflexions pour 2020". Le mémo d'Andrew Bosworth retrace des années de scandales très médiatisés sur le réseau social, de l'ingérence dans les élections russes à Cambridge Analytica. Bien qu'il affirme que certains des " détails " qui ont été rapportés publiquement étaient erronés - il se demande, par exemple, dans quelle mesure l'ingérence russe a affecté l'opinion des électeurs et qualifie le scandale de Cambridge Analytica de "non-événement" - il admet qu' "il y a presque toujours une question critique" sous-jacente au reportage qu'il estime juste.

Le mémo souligne que l'élection présidentielle de 2016 a marqué un tournant dans la perception du public à l'égard de Facebook et admet que Facebook est responsable de la bouleversante réaction de M. Trump. Bosworth dit qu'il n'est " pas un fan de Trump ", mais il attribue la victoire à la stratégie numérique de la campagne de Trump.

Donc Facebook était-il responsable de l'élection de Donald Trump ?" Bosworth écrit. "Je pense que la réponse est oui, mais pas pour les raisons que l'on croit. Il n'a pas été élu à cause de la Russie ou de la désinformation ou de Cambridge Analytica. Il a été élu parce qu'il a mené la meilleure campagne publicitaire numérique que j'ai jamais vue de la part d'un annonceur. Point final.

Bosworth poursuit en disant que la société ne devrait pas utiliser son énorme portée pour bloquer la réélection de Trump en 2020, comparant l'idée au Seigneur des Anneaux, dans lequel les personnages envisagent brièvement de tenter d'utiliser l'anneau du pouvoir à des fins justes. "Aussi tentant qu'il soit d'utiliser les outils à notre disposition pour changer le résultat," écrit-il, "je suis sûr que nous ne devons jamais faire cela ou nous deviendrons ce que nous craignons."

Le mémo complet :

Réflexions pour 2020

L'élection de Donald Trump a immédiatement mis les projecteurs sur Facebook. Bien que l'intensité et la focalisation de ce projecteur puissent être injustes, je crois qu'il ne l'est pas. Un examen minutieux est justifié étant donné notre position dans la société comme le plus important d'un nouveau média. Je pense que la plupart des critiques qui ont été formulées sont valables et représentent des domaines réels qui nous permettent de mieux servir notre communauté. Je n'aime pas que nos défauts soient exposés, mais je considère que c'est beaucoup mieux que l'alternative où nous restons ignorants de nos défauts.
Un piège dans lequel je vois parfois les gens tomber est d'écarter tous les commentaires lorsqu'ils peuvent invalider une partie de ceux-ci. Je vois cela avec le feedback personnel et je le vois avec la couverture médiatique. La presse se trompe souvent sur tant de détails qu'il peut être difficile de faire confiance à la véracité de ses conclusions. Rejeter le tout à cause de défauts dans certaines parties est une erreur. Les médias ont peu d'informations avec lesquelles travailler (de notre propre conception !) et ils se trompent parfois complètement mais il y a presque toujours un problème critique qui les a motivés à écrire et que nous devons comprendre.
Il vaut la peine de regarder les élections de 2016 qui ont mis en branle cette chaîne d'événements. Je dirigeais notre organisation de publicité au moment de l'élection et je l'avais fait pendant les quatre années précédentes (et pendant un an après). Il vaut la peine de rappeler à tout le monde que l'ingérence russe était réelle, mais qu'elle ne s'est pas faite par le biais de la publicité. 100 000 $ de publicité sur Facebook peut être un outil puissant, mais cela ne peut pas vous acheter une élection américaine, surtout lorsque les candidats eux-mêmes mettent plusieurs ordres de grandeur de plus d'argent sur la même plateforme (sans parler des autres plateformes).
Les Russes ont plutôt cherché à exploiter les divisions existantes au sein du public américain, par exemple en organisant des manifestations de protestation Black Lives Matter et Blue Lives Matter dans la même ville le même jour. Les personnes qui se sont présentées à ces événements étaient réelles même si le coordinateur de l'événement ne l'était pas. De même, les groupes d'Américains à qui l'on donnait un contenu partisan étaient réels même si ceux qui les nourrissaient ne l'étaient pas. La portée organique qu'ils ont gérée semble très grande en termes absolus et malheureusement les humains sont mauvais pour contextualiser de grands nombres. La portée qu'ils ont gérée représente une fraction infinitésimale du contenu global que les gens ont vu pendant la même période et certainement au cours d'une élection dans tous les médias.
Donc, la plupart des informations qui circulent et qui sont largement considérées comme fausses ne sont pas exactes. Mais qui s'en soucie ? Il est certainement vrai que nous aurions dû être plus attentifs au rôle que le contenu payant et organique jouait dans la démocratie et être plus protecteurs de celle-ci. En ce qui concerne l'ingérence étrangère, Facebook a fait des progrès importants et même si nous ne pourrons peut-être jamais l'éliminer complètement, je ne m'attends pas à ce que ce soit un problème majeur pour 2020.
La désinformation était également réelle et liée, mais pas la même que l'ingérence russe. Les Russes ont peut-être utilisé la désinformation parallèlement à de véritables messages partisans dans leurs campagnes, mais la principale source de désinformation était motivée par des raisons économiques. Des gens sans aucun intérêt politique ont réalisé qu'ils pouvaient diriger le trafic vers des sites Web chargés de publicité en créant de faux titres et l'ont fait pour gagner de l'argent. Il serait plus juste de les décrire comme des canulars qui jouent sur le biais de confirmation ou la théorie du complot. À mon avis, c'est un autre domaine où la critique est méritée. C'est aussi un domaine dans lequel nous avons fait des progrès spectaculaires et nous ne nous attendons pas à ce que ce soit un problème majeur pour 2020.
Il convient de noter, comme c'est pertinent en ce moment, que la désinformation des candidats eux-mêmes n'a pas été considérée comme un défaut majeur de la publicité politique sur le FB en 2016, même si notre politique d'alors était la même que celle d'aujourd'hui. Ces politiques sont souvent couvertes par la presse dans le cadre d'un but lucratif. C'est un domaine dans lequel je peux vous assurer que les critiques ont tort. Le fait d'avoir dirigé notre entreprise de publicité pendant un certain temps n'est tout simplement pas un facteur lorsque nous discutons de la bonne chose à faire. Cependant, étant donné que ces conversations sont privées, je pense que nous pouvons tous convenir que la presse peut être pardonnée de sauter à cette conclusion. Peut-être pourrions-nous mieux exposer le coût réel de ces erreurs pour faire comprendre que la maximisation des revenus aurait nécessité une stratégie entièrement différente.
Cambridge Analytica est l'un des cas les plus graves auxquels je peux penser, où les détails sont presque tous faux, mais je pense que l'examen minutieux est globalement correct. Facebook a lancé très publiquement notre plateforme de développement en 2012 dans un environnement où l'on nous surveille principalement pour ne pas divulguer les données. Tous ceux qui ont ajouté une application ont reçu un message leur expliquant à quelles informations elle aurait accès et, à l'époque, elle comprenait des informations provenant d'amis. Cela peut sembler fou dans un contexte de 2020, mais cela a reçu beaucoup d'éloges à l'époque. Cependant, le seul mécanisme dont nous disposions pour assurer la sécurité des données une fois qu'elles étaient partagées était les menaces juridiques qui, en fin de compte, ne représentaient pas grand-chose pour les entreprises qui avaient très peu à perdre. La plateforme n'a pas apporté la valeur que nous espérions pour nos consommateurs et nous avons fermé cette forme de plateforme en 2014.
La société Cambridge Analytica a commencé par mener des enquêtes sur Facebook pour obtenir des informations sur les gens. Plus tard, elle est devenue une société de publicité, dans le cadre de notre programme de partenaires marketing Facebook, que d'autres sociétés pouvaient engager pour diffuser leurs publicités. Leur prétention à la célébrité était le ciblage psychographique. C'était de la pure huile de serpent et nous le savions ; leurs publicités n'ont pas été plus performantes que celles de tout autre partenaire marketing (et dans de nombreux cas, elles ont été moins performantes). Je regrette personnellement de les avoir laissés rester dans le programme FMP pour cette seule raison. Cependant, à l'époque, nous pensions qu'ils n'étaient qu'une autre entreprise qui essayait de trouver un angle pour se promouvoir et nous avons supposé qu'un mauvais rendement finirait par leur faire perdre leur clientèle. Nous n'avions aucune idée qu'ils achetaient un ancien ensemble de données Facebook qu'ils étaient censés avoir supprimé (et nous avons certifié par écrit qu'ils l'avaient fait).
Lorsque Trump a gagné, Cambridge Analytica a essayé de s'attribuer le mérite pour qu'ils soient de nouveau sur notre radar, mais seulement pour avoir fait des déclarations à la con sur leur propre importance. J'ai été heureux quand le directeur de campagne de Trump, Brad Parscale, les a appelés pour cela. Par la suite, nous avons appris par des journalistes qu'ils n'avaient jamais supprimé la base de données et qu'ils avaient plutôt fait des promesses élaborées sur son pouvoir pour la publicité. Notre équipe comms a décidé qu'il serait préférable de devancer les journalistes et de les retirer de la plate-forme. C'était une énorme erreur. Ce n'était pas seulement une mauvaise forme (ce qui mettait les journalistes en colère à juste titre), mais nous menions également un mauvais combat. Nous voulions qu'il soit clair qu'il ne s'agissait pas d'une violation de données (ce qui, pour être juste envers nous, n'en était absolument pas une) mais le véritable problème était l'existence de l'ensemble de données, peu importe comment cela se produisait. Nous avons également envoyé aux journalistes des lettres juridiques leur conseillant de ne pas utiliser le terme "violation", qui a été reçu normalement par le NYT (qui a accepté) et agressivement par The Guardian (qui a avancé avec la mauvaise terminologie, furieux de la lettre) en dépit du fait que c'est une pratique relativement courante, m'a-t-on dit.
En termes pratiques, Cambridge Analytica est un non-événement total. C'étaient des vendeurs d'huile de serpent. Les outils qu'ils utilisaient ne fonctionnaient pas, et l'échelle à laquelle ils les utilisaient n'avait pas de sens. Toutes les affirmations qu'ils ont faites à leur sujet sont des foutaises. Les données du genre de celles qu'ils avaient n'ont pas beaucoup de valeur et, pire encore, elles se dégradent rapidement, au point d'être effectivement inutiles en 12 à 18 mois. En fait, le bureau du commissaire à l'information du Royaume-Uni (ICO) a saisi tout l'équipement de Cambridge Analytica et a constaté qu'il n'y avait aucune donnée provenant de citoyens britanniques ! C'est donc sûrement un cas où nous pouvons ignorer la presse, n'est-ce pas ? Non. La plate-forme était si mauvaise que les risques associés à cette opération allaient forcément être mis en lumière. Le fait que nous l'ayons fermée en 2014 et que nous n'ayons jamais payé le prix fort pour sa mauvaise qualité justifie, à mon avis, cet examen minutieux, même s'il est malavisé de justesse.
Alors, est-ce que Facebook est responsable de l'élection de Donald Trump ? Je pense que la réponse est oui, mais pas pour les raisons que l'on croit. Il n'a pas été élu à cause de la Russie ou de la désinformation ou de Cambridge Analytica. Il a été élu parce qu'il a mené la meilleure campagne de publicité numérique que j'ai jamais vue de la part d'un annonceur. Point final.
Pour être clair, je ne suis pas fan de Trump. J'ai donné le maximum à Hillary. Après son élection, j'ai écrit un post sur les supporters de Trump qui, m'a-t-on dit, a fait que les collègues qui l'avaient soutenu ne se sentaient pas en sécurité autour de moi (je regrette ce post et je l'ai supprimé peu après).
Mais Parscale et Trump ont juste fait un travail incroyable. Ils ne faisaient pas de désinformation ou de canulars. Ils n'ont pas fait de microciblage ou dit des choses différentes à des personnes différentes. Ils ont juste utilisé les outils que nous avions pour montrer la bonne créativité à chaque personne. L'utilisation d'audiences personnalisées, de vidéos, de commerce électronique et d'éléments créatifs frais reste, à mon avis, le point culminant des campagnes publicitaires numériques.
Cela m'amène au moment présent, où nous avons maintenu les mêmes politiques publicitaires. Il me semble que cela peut très bien mener au même résultat. En tant que libéral engagé, je veux désespérément tirer sur tous les leviers à ma disposition pour éviter le même résultat. Alors que reste-t-il de ma main ?
Je pense au Seigneur des Anneaux en ce moment. Plus précisément quand Frodon offre l'anneau à Galadrial et qu'elle s'imagine utiliser le pouvoir à bon escient, au début, mais sait que cela finira par la corrompre. Aussi tentant qu'il soit d'utiliser les outils à notre disposition pour changer le résultat, je suis confiant que nous ne devons jamais faire cela ou nous deviendrons ce que nous craignons.
Le philosophe John Rawls a raisonné que la seule façon morale de décider quelque chose est de se retirer entièrement des détails de toute personne impliquée, derrière un soi-disant "voile d'ignorance". C'est l'outil qui m'amène à croire aux programmes du gouvernement libéral comme les soins de santé universels, l'expansion des programmes de logement et la promotion des droits civils. C'est aussi l'outil qui m'empêche de limiter la portée des publications qui ont gagné leur public, aussi répugnant que soit leur contenu pour moi et même pour la philosophie morale qui m'est si chère.
Cela ne veut pas dire qu'il n'y a pas de limite. Des choses comme l'incitation à la violence, la suppression d'électeurs et d'autres sont des choses que la même philosophie morale me permettrait d'écarter sans risque. Mais je pense que mes collègues libéraux sont un peu trop, eh bien, libéraux quand il s'agit de traiter les gens de nazis.
Si nous ne voulons pas de politiciens haineux, nous ne devons pas les élire. S'ils sont élus, alors nous devons gagner les cœurs et les esprits. Si nous changeons les résultats sans gagner les esprits des gens qui seront dirigés, alors nous avons une démocratie de nom seulement. Si nous limitons l'information à laquelle les gens ont accès et ce qu'ils peuvent dire, alors nous n'avons pas de démocratie du tout.
Cette conversation sonne souvent l'alarme autour des bulles de filtre, mais c'est un mythe facile à dissiper. Demandez-vous combien de journaux et de programmes d'information les gens lisaient ou regardaient avant l'Internet. Si vous avez deviné " un et un " en moyenne, vous avez raison, et si vous avez deviné que ceux-ci étaient idéologiquement alignés avec eux, vous avez encore raison. Internet les expose à beaucoup plus de contenu provenant d'autres sources (26% de plus sur Facebook, selon notre recherche). Tout le monde se trompe sur ce point.
L'accent mis sur les bulles de filtre fait que les gens passent à côté du vrai désastre qu'est la polarisation. Que se passe-t-il lorsque vous voyez 26 % de contenu en plus provenant de personnes avec lesquelles vous n'êtes pas d'accord ? Est-ce que cela vous aide à vous identifier à eux comme tout le monde le suggère ? Non. Cela vous fait les détester encore plus. C'est aussi facile à prouver par une expérience de pensée : quelle que soit votre tendance politique, pensez à une publication de l'autre côté que vous méprisez. Quand vous lisez un article de cette publication, peut-être partagé par un oncle ou un neveu, cela vous fait-il repenser vos valeurs ? Ou vous fait-il reculer davantage dans la conviction de votre propre rectitude ? Si vous avez répondu à la première question, félicitations, vous êtes une meilleure personne que moi. Chaque fois que je lis quelque chose de Breitbart, je deviens 10% plus libéral.
Qu'est-ce que tout cela dit sur la nature des récompenses algorithmiques ? Tout le monde indique qu'un contenu supérieur à 0,1 % est fortement polarisé, mais quelle est la pente des courbes ? À quoi ressemble le 1 % ou le 5 % supérieur ? Et quelle est la portée réelle de ces courbes par rapport aux autres contenus ? Je pense que l'appel à la transparence algorithmique peut parfois être exagéré, mais il serait probablement sain d'être plus transparent sur ce type de données.
Ce que je m'attends à ce que les gens trouvent, c'est que les algorithmes exposent principalement les désirs de l'humanité elle-même, pour le meilleur ou pour le pire. C'est un problème de Sucre, Sel, Gras. Le livre du même nom raconte une histoire qui porte ostensiblement sur la nourriture, mais en réalité sur l'efficacité limitée du paternalisme des entreprises. Il y a quelque temps, les aliments Kraft avaient un chef qui essayait de réduire le sucre qu'ils vendaient dans l'intérêt de la santé des consommateurs. Mais les clients voulaient du sucre. Il a donc fini par réduire la part de marché de Kraft. Les résultats pour la santé ne se sont pas améliorés. Ce PDG a perdu son emploi. Le nouveau PDG a introduit les quadruplés farcis et l'entreprise est revenue en grâce. Donner aux gens les outils nécessaires pour prendre leurs propres décisions est une bonne chose, mais essayer de leur imposer des décisions ne fonctionne que rarement (pour eux ou pour vous).
Dans ces moments-là, les gens aiment à suggérer que nos consommateurs n'ont pas vraiment de libre arbitre. Les gens comparent les médias sociaux à la nicotine. Je trouve cela très offensant, non pas pour moi mais pour les dépendants. J'ai vu des membres de ma famille lutter contre l'alcoolisme et des camarades de classe lutter contre les opioïdes. Je sais qu'il y a une bataille pour la terminologie de la dépendance, mais je me range fermement du côté des neuroscientifiques. Néanmoins, même si Facebook n'est pas de la nicotine, je pense que c'est probablement comme le sucre. Le sucre est délicieux et pour la plupart d'entre nous, il occupe une place spéciale dans notre vie. Mais comme toute chose, il bénéficie de la modération.
En fin de compte, nous sommes obligés de nous demander quelle est la responsabilité des individus pour eux-mêmes. Mettre de côté les substances qui altèrent directement notre neurochimie de façon non naturelle. Rendre les coûts et les compromis aussi transparents que possible. Mais au-delà de cela, chacun de nous doit prendre ses responsabilités. Si je veux manger du sucre et mourir prématurément, c'est une position valable. Mon grand-père a pris une telle position envers le bacon et je l'admirais pour cela. Et les médias sociaux sont probablement beaucoup moins mortels que le bacon.
Pour boucler la boucle de cet essai inhabituellement long et tortueux, je voulais lancer une discussion sur les leçons que les gens tirent de la couverture médiatique. J'en déduis que nous étions en retard sur la sécurité des données, la désinformation et l'ingérence étrangère. Nous devons devancer la polarisation et la transparence algorithmique. Quels sont les autres grands sujets que les gens voient et où en sommes-nous dans ces domaines ?

On remarquera pour conclure la bourde monumentale soulevée par tous les fans du seigneur des anneaux. En effet comparer Facebook au pouvoir de l'Anneau Unique passe complètement à côté de la leçon du conte de Tolkien : qu'un tel pouvoir, même lorsqu'il est exercé par le plus grand des hommes (Galadriel) ou avec les meilleures intentions (Gandalf), est inapte à être possédé par quiconque. Si Facebook est l'Anneau du pouvoir, selon l'argument de Boz, la meilleure ligne de conduite n'est pas de débattre de la manière de l'utiliser, mais de reconnaître qu'il possède entièrement trop de pouvoir et de le rejeter dans le gouffre ardent d'où il vient. (Ou peut-être que c'est juste pour sévir davantage contre les fausses publicités politiques afin que les politiciens ne puissent pas abuser de son pouvoir).

Source : https://www.theverge.com/2020/1/7/21055348/facebook-trump-election-2020-leaked-memo-bosworth