Comment l'IA de Tiktok a embrasé la France

Comment l’IA de Tiktok a embrasé la France

Avant de commencer ce post, j’aimerais dire que, même s’il parle des émeutes, il n’a rien de politique. Je ne donnerais pas mon avis sur la question, je propose simplement un décryptage algorithmique de la situation.

Depuis 2019 avec La revue IA, j’explique la même chose : le premier danger des IA ça n’est pas Terminator et les robots tueurs qui vont prendre le contrôle de l’humanité. Le premier danger des IA c’est leurs utilisations dans les réseaux sociaux.

Les dangers des IA des réseaux sociaux

Les algorithmes des gros réseaux sociaux comme Facebook, Tiktok ou Instagram, sont conçus de la même manière à l’origine.

Ils ont un seul objectif, une seule métrique à optimiser, c’est le temps que vous passez sur la plateforme. Ils doivent donc trouver le type de contenus qui vous plait et vous proposer des choses similaires.

Pour l’instant je ne vous apprend rien.

Pour trouver le bon contenu pour vous, plusieurs stratégies sont utilisées :

L’algo de Tiktok va regarder le temps que vous passez sur chaque vidéo, et grâce à ça il va determiner si ces contenus vous plaisent ou non.

L’algo d’Instagram est très sensible aux nombres de fois que le bouton « Copier le lien » est utilisé. Car si une vidéo permet de ramener des gens sur la plateforme elle dessert bien l’objectif attendu.

L’algo de Facebook est encore un peu plus vicieux. Il va dans le détail de vos émotions. En fonction des emojis de réactions que vous utilisez, il va savoir quel contenu vous rend heureux, quel contenu vous rend triste, quel contenu vous met en colère, etc.

En plus de poser des questions sur la privacy des données (qui n’existe plus d’ailleurs mais c’est un autre sujet), on peut s’inquiéter des addictions que ces algos peuvent causer.

Mais le problème dont je veux parler est pire encore !

Les utilisateurs de chaque plateforme sont regroupés sous forme de clusters qui ont les mêmes préférences sur des sujets différents (on peut être dans le même cluster sur le foot mais sur des clusters différents en politique).

Et plus un cluster aime un type de contenu, plus ce contenu va lui être proposé, ce qui engendre la polarisation de chacun des clusters :

  • les gens qui aiment Messi vont l’aimer encore plus et encore plus detester Ronaldo, et inversement
  • les personnes de gauche vont devenir de plus en plus extrêmes, et pareil pour la droite
  • etc.

Ce problème est appelé, dans le domaine des probabilités, « la fixation ». Pour illustrer ça j’aime bien prendre l’exemple suivant :

Imaginez une urne, qui contient 10 boules rouges et 10 boules bleues.

Vous tirez une boule au hasard :

🔵 Si elle est bleue vous remettez la boule et en ajoutez 2 bleues dans l’urne
🔴 Si elle est rouge vous faites pareil mais en ajoutant des boules rouges cette fois

Si vous faites l’expérience un nombre suffisamment grand de fois, il n’y a qu’une seule issue possible : la probabilité de choisir une des 2 couleurs va tendre vers 1.

Si maintenant :

  • l’urne est votre feed YouTube
  • les boules bleues des vidéos de droite
  • les boules rouges des vidéos de gauche

Au bout de quelques heures passées sur la plateforme, les vidéos proposées seront largement polarisées.

Ce qui se traduira par des comportements toujours plus extrémistes et polarisés.

Quel est le lien entre l’IA de Tiktok et les émeutes ?

En terme de polarisation, l’IA de Tiktok est pire que celle de YouTube, et un feed Tiktok peut vous donner beaucoup d’informations sur les centres d’intérêts d’une personne.

Les « émeutiers », s’informent et échangent principalement sur Tiktok. L’IA de Tiktok en terme de polarisation est pire que celle de YouTube, et a causé une compétition entre quartier.

Les émeutiers cherchent à savoir quel quartier est le plus « chaud ».

  • Chaque quartier va former un cluster d’utilisateurs proches. En conséquence, le fil d’actualité de chacun des membres de ce cluster se ressemble beaucoup
  • Donc quand une vidéo faite par un membre d’un cluster A apparaît dans le fil d’un membre d’un cluster B, il y a de forte chance que tous le cluster B ait vu la même vidéo
  • La gravité des actes commis est corrélée avec le succès d’un post. Car l’IA de Tiktok regarde le temps passé sur un contenu et le nombre de copies du lien. Donc on a un lien mathématique entre la « popularité » d’un cluster d’émeutiers et la gravité de leurs actions

Comme la plupart sont uniquement sur Tiktok, il ne voit pas ce qui se passe dans les autres clusters, ils sont dans un sous groupe fermé de Tiktok et l’algorithme ne leur montrera pas les vidéos d’appels, celles faites par les politiciens ou quoi que ce soit d’autres.

Evidemment, Tiktok n’est pas le seul facteur responsable de ces émeutes, c’est simplement un catalyseur dangereux.

Conclusion

En conclusion, il faut garder à l’esprit que l’IA, dans son rôle omniprésent sur les réseaux sociaux, peut potentiellement catalyser et amplifier les divisions dans la société.

Les algorithmes des réseaux sociaux, conçus pour maximiser l’engagement, peuvent mener à une polarisation extrême et à des comportements radicaux.

L’IA de TikTok est particulièrement dangereuse, d’ailleurs l’utilisation de Tiktok est limitée à 45 minutes pour les jeunes chinois de moins de 18 ans et le contenu est plus éducatif. A méditer pour nos politiciens…