La personnalisation des algorithmes risque de limiter notre vision du monde : nous ne croyons vraies qu’aux informations proches de nos idées et nous entrons en contact avec des utilisateurs semblables à nous. Un piège, surtout pour les adolescents

On les appelle chambres d’écho et ce sont des environnements virtuels créés sur des plateformes de partage en ligne, une sorte de bulle au sein de laquelle nos idées ne peuvent que se confirmer.
Les entreprises qui opèrent sur le Web connaissent le mécanisme : grâce aux algorithmes, c’est-à-dire une série d’instructions qu’un ordinateur suit pour résoudre un problème ou effectuer une tâche automatiquement, elles apprennent les préférences et les intérêts à travers nos comportements numériques (clics, likes, vues). La prochaine étape consiste à nous proposer du contenu et des contacts avec d’autres utilisateurs similaires à nous pour nous permettre de rester le plus possible sur leur plateforme. L’être humain y donne alors sa propre tournure : il a tendance à ne croire vraies que les informations qui se rapprochent de ses croyances (biais confirmation). Cela explique pourquoi des tribus d’utilisateurs se forment sur les réseaux sociaux, dans lesquelles tout le monde est d’accord et personne ne se rend compte que le monde extérieur est souvent différent de la façon dont nous le voyons en ligne.

L’analyse

La récente étude américaine La personnalisation algorithmique des informations peut entraîner des généralisations inexactes et un excès de confiance.publié le Journal de psychologie expérimentale: Généralsuggère que la personnalisation peut fausser la compréhension de l’environnement, influencer la collecte d’informations et induire une généralisation incorrecte des connaissances. L’enquête a impliqué 143 participants pour un total de 346 sessions expérimentales et a étudié comment les gens apprennent lorsqu’ils reçoivent des informations personnalisées. L’expérience comprenait des phases d’apprentissage et de test. La première étape consistait à observer quelques images d’extraterrestres et leurs caractéristiques, initialement cachées, qu’il fallait révéler en un clic. Il a ensuite été demandé aux sujets de catégoriser les informations et d’indiquer leur niveau de croyance.
Pour mieux étudier les effets de la personnalisation, toutes les options n’ont pas été dévoilées à l’avance, conservant une représentation plus fidèle à la réalité. L’algorithme de personnalisation utilisé dans cette étude s’inspire de celui de YouTube : il montre aux utilisateurs les contenus qui, en fonction de leurs habitudes, sont les plus susceptibles d’être visionnés, afin d’augmenter leur consommation. Les sujets étudiés avaient généralement du mal à admettre qu’ils n’avaient jamais reçu de nouvelles pendant la phase d’apprentissage, et leur niveau de confiance était étonnamment élevé, même pour des groupes qu’ils n’avaient jamais vus. L’étude montre en fait que ceux qui n’ont appris qu’un sous-ensemble des catégories ont tendance à être trop confiants, même lorsqu’ils doivent classer des éléments totalement inconnus. Les résultats indiquent comment les algorithmes de personnalisation peuvent donc réduire considérablement l’espace des connaissances et fausser notre perception.

Les périls

L’impact de la personnalisation est préoccupant car elle contribue à développer à l’excès l’attention sélective, c’est-à-dire la capacité de notre cerveau à se concentrer sur certaines informations ou stimuli jugés importants, en ignorant tout le reste, une sorte de « filtre » appliqué aux différents signaux reçus de l’environnement. Ce qui est certainement une ressource peut devenir un danger s’il est sur-développé, car il est difficile à corriger et rend difficile l’exploration de nouveaux domaines de connaissance. Un risque surtout pour les nouvelles générations, qui se retrouvent piégées dans un mécanisme de compréhension partielle et déformée, qui s’auto-alimente.

A lire également