Commentary on Political Economy

Tuesday 27 February 2024

 

Sur TikTok, l’effet « terrier de lapin » inquiète la Commission européenne et les ONG

L’algorithme de recommandation de TikTok fonctionne grâce à une analyse précise des centres d’intérêt de ses utilisateurs, l’objectif étant d’augmenter le temps passé sur l’application.
L’algorithme de recommandation de TikTok fonctionne grâce à une analyse précise des centres d’intérêt de ses utilisateurs, l’objectif étant d’augmenter le temps passé sur l’application. SPENCER PLATT / GETTY IMAGES / AFP

Pour Selma, tout commence en 2021, lorsqu’elle tombe sur une vidéo TikTok intitulée « Cinq signes montrant que vous êtes autiste », proposée sur sa page Pour toi. L’étudiante en droit, qui a alors 17 ans (les témoins n’ont pas souhaité donner leur nom de famille), la regarde par curiosité, puis fait défiler un contenu sur le même thème qui lui est aussitôt proposé, et ainsi de suite. « J’ai commencé à m’inquiéter, j’ai visionné une centaine de vidéos pour savoir si je l’étais vraiment. C’était devenu irrationnel. » Elle voit dès lors des signes d’autisme dans chacun de ses gestes, mais n’en parle pas à ses parents, qui s’inquiètent de son isolement croissant. « Toute la journée, j’attendais le moment où j’aurai quelques minutes pour ouvrir TikTok et regarder si d’autres vidéos allaient m’indiquer d’autres signes, je devenais folle », se rappelle-t-elle.

Depuis, Selma a désinstallé l’application, « pour le bien de [sa] santé mentale », explique-t-elle. Elle a été victime de l’effet rabbit hole (« terrier de lapin ») qui vaut à TikTok de vives critiques. Tant qu’il s’agit de vidéos inoffensives tout va bien. Mais ses détracteurs dénoncent un encouragement à regarder de plus en plus de vidéos dangereuses pour la santé mentale.

Pour répondre à ces inquiétudes, la Commission européenne a annoncé, le 19 février, l’ouverture d’une enquête visant le réseau social pour des manquements présumés en matière de protection des mineurs. L’institution a ouvert « une procédure formelle » afin de déterminer si TikTok a enfreint le règlement sur les services numériques (le Digital Services Act, ou DSA). Les inquiétudes du gendarme européen du numérique portent en particulier sur la protection des mineurs, la transparence de la publicité, l’accès aux données pour les chercheurs, ainsi que les risques liés à la conception addictive de la plate-forme et aux contenus préjudiciables.

De son côté, TikTok France affirme au Monde que cette enquête est une « simple vérification de la mise en place du règlement européen sur les services numériques (DSA). Comme indiqué dans le communiqué, cela ne présage pas de conclusions ». Le réseau social se targue d’être « un précurseur qui a développé des fonctionnalités et des paramètres visant à protéger les adolescents et à restreindre l’accès à la plate-forme aux moins de 13 ans ».

Lire aussi :
Article réservé à nos abonnés

« De graves risques » pour la santé mentale

L’alerte avait déjà été donnée au niveau européen en novembre 2023, lorsque l’ONG AI Forensics a réalisé une enquête, en collaboration avec Amnesty International et l’Algorithmic Transparency Institute, sur le phénomène. Cette dernière a montré comment les enfants et les jeunes adultes qui regardent des contenus relatifs à la santé mentale sur la page Pour vous de la plate-forme sont rapidement entraînés dans des « spirales » de contenus potentiellement dangereux, notamment des vidéos qui rendent romantiques et encouragent les pensées dépressives, l’automutilation et le suicide.

« Les constatations [de l’enquête d’Amnesty International] dénoncent les caractéristiques de conception manipulatrices et addictives de TikTok, dont le but intrinsèque est de conserver l’attention des utilisateurs et utilisatrices le plus longtemps possible », analysait Lisa Dittmer, chercheuse à Amnesty International. L’enquête a également montré que le système algorithmique de recommandation de contenus « expose les enfants et les jeunes adultes ayant déjà des problèmes de santé mentale à de graves risques ».

Les algorithmes de TikTok « ne sont ni bons ni mauvais », nuance Olivier Ertzscheid, chercheur en sciences de l’information à l’université de Nantes. « Les algorithmes permettent également de survaloriser les contenus positifs. Mais les utilisateurs peuvent rapidement s’enfermer dans un rabbit hole négatif à partir du moment où les interactions avec des contenus blessants ou offensants ont lieu. » Depuis mars 2023, il est possible de réinitialiser son fil Pour toi pour éviter les recommandations « répétitives ». Cette fonctionnalité permet alors d’avoir un nouveau fil d’actualité, comme si l’utilisateur « venait tout juste de s’inscrire sur TikTok »précisait un communiqué de la plate-forme.

Algorithme opaque

Régulièrement qualifié d’opaque, l’algorithme du réseau de partage de vidéos de l’entreprise chinoise ByteDance (maison mère de TikTok) n’est que partiellement connu. Peu d’informations sont divulguées sur son fonctionnement et son mode de recommandation. En 2021, le New York Times avait réussi à obtenir une note interne de l’entreprise d’ingénieurs basés à Pékin, baptisée « TikTok Algo 101 ». « Le document montre que le temps de visionnage [des vidéos] n’est pas le seul facteur pris en compte par TikTok. Il propose une équation approximative pour la notation des vidéos, dans laquelle une prédiction basée sur l’apprentissage automatique de l’application numérique et le comportement réel de l’utilisateur sont additionnés pour chacune de ces données : les likes, les commentaires et le temps de lecture, ainsi que le temps de visionnage passé sur une vidéo », écrivait le quotidien américain.

L’« objectif ultime » de TikTok étant d’augmenter le nombre d’utilisateurs quotidiens actifs, toujours d’après cette note interne, l’accent est mis sur la « rétention », c’est-à-dire le fait de revenir sur l’appli, et le « temps passé ». L’expérience est souvent décrite comme une addiction, qui vient solliciter le centre de la récompense dans le cerveau des utilisateurs, libérant de grandes quantités de dopamine. Autre révélation du New York Times : le lanceur d’alerte qui lui a transmis ce document s’est dit « troublé » par la tendance de l’application à proposer des contenus « tristes » susceptibles d’induire la volonté de se faire du mal.

L’enquête de la Commission européenne pourrait par conséquent représenter une avancée pour les experts, car elle devrait permettre d’éclairer le fonctionnement de TikTok. « Ce qui va être intéressant, c’est de savoir à quelles données la Commission va avoir accès et à quel point la plate-forme va être coopérative avec le régulateur, relève Marc Faddoul, directeur d’AI Forensics. TikTok va évidemment minimiser son impact sur les jeunes et sa responsabilité. »

Lire le décryptage :

No comments:

Post a Comment