banner
Maison / Blog / Comme
Blog

Comme

Apr 19, 2024Apr 19, 2024

Nature volume 620, pages 137-144 (2023)Citer cet article

32 000 accès

2 citations

1599 Altmétrique

Détails des métriques

De nombreux critiques s'inquiètent de la prévalence des « chambres d'écho » sur les réseaux sociaux et de leur rôle potentiel dans l'augmentation de la polarisation politique. Cependant, le manque de données disponibles et les difficultés liées à la conduite d’expériences sur le terrain à grande échelle ont rendu difficile l’évaluation de l’ampleur du problème1,2. Nous présentons ici des données de 2020 pour l'ensemble de la population d'utilisateurs adultes actifs de Facebook aux États-Unis, montrant que le contenu provenant de sources « partageant les mêmes idées » constitue la majorité de ce que les gens voient sur la plateforme, bien que les informations et actualités politiques ne représentent qu'une petite fraction de ce que les gens voient sur la plateforme. ces expositions. Pour évaluer une réponse potentielle aux préoccupations concernant les effets des chambres d'écho, nous avons mené une expérience de terrain multi-ondes sur Facebook auprès de 23 377 utilisateurs pour lesquels nous avons réduit d'environ un tiers l'exposition au contenu provenant de sources partageant les mêmes idées lors de l'élection présidentielle américaine de 2020. . Nous avons constaté que l'intervention augmentait leur exposition au contenu provenant de sources transversales et diminuait leur exposition au langage incivil, mais n'avait aucun effet mesurable sur huit mesures d'attitude préenregistrées telles que la polarisation affective, l'extrémité idéologique, les évaluations des candidats et la croyance en de fausses déclarations. Ces résultats précisément estimés suggèrent que, même si l’exposition à des contenus provenant de sources partageant les mêmes idées sur les réseaux sociaux est courante, la réduction de leur prévalence lors de l’élection présidentielle américaine de 2020 n’a pas réduit en conséquence la polarisation des croyances ou des attitudes.

La polarisation partisane et l’hostilité accrues sont souvent imputées aux chambres d’écho en ligne sur les réseaux sociaux3,4,5,6,7, une préoccupation qui s’est accrue depuis l’élection présidentielle américaine de 20168,9,10. On pense que des plateformes telles que Facebook alimentent les extrêmes en montrant à plusieurs reprises aux gens du contenu sympathique provenant de sources partageant les mêmes idées et en limitant l'exposition aux contre-arguments qui pourraient promouvoir la modération et la tolérance11,12,13. De même, la communication renforçant l’identité sur les réseaux sociaux pourrait renforcer les attitudes négatives à l’égard des groupes externes et renforcer les attachements aux groupes internes14.

Pour évaluer la fréquence à laquelle les gens sont exposés à du contenu sympathique sur les réseaux sociaux, nous utilisons les données de tous les utilisateurs adultes actifs de Facebook aux États-Unis pour analyser dans quelle mesure ce qu'ils voient sur la plateforme provient de sources que nous catégorisons comme partageant leurs tendances politiques (ce qui nous faisons référence au contenu provenant de sources partageant les mêmes idées ; voir Méthodes, « Conception expérimentale »). Avec un sous-ensemble de participants consentants, nous évaluons ensuite une réponse potentielle aux préoccupations concernant les effets des chambres d'écho en menant une expérience sur le terrain à grande échelle réduisant l'exposition au contenu provenant de sources partageant les mêmes idées sur Facebook. Cette recherche comble trois lacunes majeures dans notre compréhension de la prévalence et des effets de l’exposition à des contenus agréables sur les réseaux sociaux.

Premièrement, nous ne disposons pas de mesures systématiques de l’exposition des contenus sur des plateformes comme Facebook, qui sont largement inaccessibles aux chercheurs2. Les données sur le trafic Web suggèrent que relativement peu d’Américains ont un régime informationnel fortement biaisé15,16,17,18, mais on en sait moins sur ce qu’ils voient sur les réseaux sociaux. Des études observationnelles antérieures sur l'exposition des informations sur les plateformes se concentrent sur Twitter, qui n'est utilisé que par 23 % du public19,20,21,22, ou sur le régime d'information de la petite minorité d'utilisateurs adultes actifs aux États-Unis qui s'identifient comme conservateurs. ou libéral sur Facebook en 2014-201523. Sans accès à des mesures comportementales de l’exposition, les études doivent plutôt s’appuyer sur des auto-évaluations sujettes à des erreurs de mesure24,25.

Deuxièmement, bien que les enquêtes établissent des associations entre le fait d’avoir des attitudes polarisées et la consommation déclarée d’informations partageant les mêmes idées26,27, peu d’études fournissent des preuves causales selon lesquelles la consommation de contenus partageant les mêmes idées conduit à une polarisation durable. Ces corrélations observées peuvent être fallacieuses étant donné que les personnes ayant des opinions politiques extrêmes sont plus susceptibles de consommer du contenu partageant les mêmes idées28,29. De plus, bien que des informations partageant les mêmes idées puissent polariser30,31,32, la plupart des tests expérimentaux de théories sur les effets potentiels des chambres d’écho sont brefs et utilisent un contenu simulé, ce qui rend difficile de savoir si ces résultats se généralisent aux environnements réels. Des travaux expérimentaux antérieurs soulèvent également la question de savoir si de tels effets polarisants sont courants18,33, à quelle vitesse ils pourraient s’atténuer18,33 et s’ils sont concentrés parmi les personnes qui évitent les informations et les contenus politiques28.

 0.05 (all tests are two-sided). P values are false-discovery rate (FDR)-adjusted (Supplementary Information, section 1.5.4)./p>