>Son fil de recommandation «Pour toi» devient saturé de contenus sombres comme des « vidéos avec une voix répétant que tu ne vas pas bien, des chansons prônant le suicide, des tutos d’automutilation »
Domtofiou on
Feldup avait fait une vidéo similaire à l’expérience décrite dans cet article : [L’horreur de TikTok](https://youtu.be/U8r8M-hyJE4?si=fMJNRt7JR6hZqU63). Bien que son intention était différente, il voulait savoir quel genre de contenu il allait trouver s’il ne regardait et ne “likait” que des vidéos liées à l’horreur, il s’est lui aussi retrouvé sur des vidéos parlant de santé mentale, puis glorifiant la scarification, le suicide, les meurtriers de masse, etc.
BenzMars on
Qui produit ces contenus macabres ? On est sur de la production visant à détruire l’égo des individus ? Par qui ? C’est diabolique non ?
GBFshy on
Pour moi la seule solution c’est une interdiction pure et simple des algos de recommendations pour les mineurs au minimum (idéalement même pour tout le monde), retour au bon vieux : tu follow bidule et tu vois les publications de bidule dans l’ordre chronologique.
La modération ne pourra jamais trier les millions de vidéos publiées, au moins la moitié des TikTok dans l’article ne violent aucune règle techniquement, surtout si tu les prends hors contexte. Je vois pas trop comment tu veux que la modération interdise “*vu que je ne brille pas en bas, je brillerai là haut*” ou “*mon rêve à moi c’est rejoindre les étoiles*”.
On voit aussi que certains utilisent le drapeau de la Suisse pour dire suicide, d’autres des tournures ambigües, clairement dans le but d’éviter la modération (donc preuve qu’il y a modération, sinon tu utiliserais les mots directement).
Le Labello Challenge c’est vieux de 3 ans et une experte en désinformation disait que le problème de ces challenge c’est de retrouver les “vrais” contenus qui soutiennent/participent au challenge lui-même plutôt que ceux qui utilisent le hashtag pour dire “attention ce challenge est dangereux” ou “avez-vous entendu parler de ce challenge” (mais sans en faire la promotion explicite) Personne n’a jamais pu quantifier réellement l’impact de ce challenge. https://www.euronews.com/culture/2022/05/20/a-new-self-harm-tik-tok-challenge-is-worrying-france-but-is-the-panic-missing-the-point
On a toujours parler du suicide sur internet, on était déjà sur alt.suicide.holiday dans les années 90 et on utilisait du vocabulaire détourné déjà à l’époque pour éviter le mot “suicide” comme “to CTB” (*to catch the bus*). La différence c’est qu’avant il fallait chercher un minimum ce genre de communautés (même si c’était pas trop difficile à trouver). Désormais c’est le contenu qui vient à toi et qui est beaucoup plus abondant (on avait pas 50000 nouveaux sujets par jour sur a.s.h) et surtout le suicide était pas autant glamourisé / rendu cool (un peu comme la majorité des troubles psy d’ailleurs sur les réseaux qu’on glamourise à outrance, c’est devenu cool d’avoir des problèmes…)
>À l’aune des nouvelles preuves mises à jour dans cette recherche, nous déposons un recours contre TikTok pour non-respect du DSA auprès de l’ARCOM, chargée du suivi de la mise en œuvre du règlement européen en France.
Ah oui l’ARCOM… bon ben rendez-vous en 2027 pour un avertissement avant mise en demeure, puis possiblement une amende ridicule.
4 commenti
>Son fil de recommandation «Pour toi» devient saturé de contenus sombres comme des « vidéos avec une voix répétant que tu ne vas pas bien, des chansons prônant le suicide, des tutos d’automutilation »
Feldup avait fait une vidéo similaire à l’expérience décrite dans cet article : [L’horreur de TikTok](https://youtu.be/U8r8M-hyJE4?si=fMJNRt7JR6hZqU63). Bien que son intention était différente, il voulait savoir quel genre de contenu il allait trouver s’il ne regardait et ne “likait” que des vidéos liées à l’horreur, il s’est lui aussi retrouvé sur des vidéos parlant de santé mentale, puis glorifiant la scarification, le suicide, les meurtriers de masse, etc.
Qui produit ces contenus macabres ? On est sur de la production visant à détruire l’égo des individus ? Par qui ? C’est diabolique non ?
Pour moi la seule solution c’est une interdiction pure et simple des algos de recommendations pour les mineurs au minimum (idéalement même pour tout le monde), retour au bon vieux : tu follow bidule et tu vois les publications de bidule dans l’ordre chronologique.
La modération ne pourra jamais trier les millions de vidéos publiées, au moins la moitié des TikTok dans l’article ne violent aucune règle techniquement, surtout si tu les prends hors contexte. Je vois pas trop comment tu veux que la modération interdise “*vu que je ne brille pas en bas, je brillerai là haut*” ou “*mon rêve à moi c’est rejoindre les étoiles*”.
On voit aussi que certains utilisent le drapeau de la Suisse pour dire suicide, d’autres des tournures ambigües, clairement dans le but d’éviter la modération (donc preuve qu’il y a modération, sinon tu utiliserais les mots directement).
Le Labello Challenge c’est vieux de 3 ans et une experte en désinformation disait que le problème de ces challenge c’est de retrouver les “vrais” contenus qui soutiennent/participent au challenge lui-même plutôt que ceux qui utilisent le hashtag pour dire “attention ce challenge est dangereux” ou “avez-vous entendu parler de ce challenge” (mais sans en faire la promotion explicite) Personne n’a jamais pu quantifier réellement l’impact de ce challenge. https://www.euronews.com/culture/2022/05/20/a-new-self-harm-tik-tok-challenge-is-worrying-france-but-is-the-panic-missing-the-point
On a toujours parler du suicide sur internet, on était déjà sur alt.suicide.holiday dans les années 90 et on utilisait du vocabulaire détourné déjà à l’époque pour éviter le mot “suicide” comme “to CTB” (*to catch the bus*). La différence c’est qu’avant il fallait chercher un minimum ce genre de communautés (même si c’était pas trop difficile à trouver). Désormais c’est le contenu qui vient à toi et qui est beaucoup plus abondant (on avait pas 50000 nouveaux sujets par jour sur a.s.h) et surtout le suicide était pas autant glamourisé / rendu cool (un peu comme la majorité des troubles psy d’ailleurs sur les réseaux qu’on glamourise à outrance, c’est devenu cool d’avoir des problèmes…)
>À l’aune des nouvelles preuves mises à jour dans cette recherche, nous déposons un recours contre TikTok pour non-respect du DSA auprès de l’ARCOM, chargée du suivi de la mise en œuvre du règlement européen en France.
Ah oui l’ARCOM… bon ben rendez-vous en 2027 pour un avertissement avant mise en demeure, puis possiblement une amende ridicule.