Dans un affinité publié, mardi 21 octobre, l’secours française de l’ONG Amnesty International a divulgué l’conclusion « coquille » de l’méthode du résille sociable TikTok, et prévenu d’élargir l’devanture à des contenus en relation en compagnie de le sabordage ou l’autocastration.
« Amnesty International France a décidé de prendre l’Arcom moyennant cheminer médisance parmi le cageot du DSA [Digital Services Act, le règlement européen sur les services numériques] grâce à TikTok moyennant légèreté à ses impératifs », a clair à la soutenu Katia Roux, occupée de message moyennant Amnesty International France.
D’ensuite les conclusions de l’ONG, des enfants « chahuteur un crédit moyennant des contenus relatifs à la affliction ou à un mal-être mental » sont orientés en moins d’une temps lyrisme des « contenus dépressifs ».
Ce affinité « apporte de nouvelles preuves de la moeurs lesquels TikTok expose les jeunes sur sa estrade à des contenus qui peuvent créature préjudiciables, qui peuvent standardiser, dépersonnaliser, propre grandir la bas-fond, l’autocastration ou le sabordage », a avancé Mme Roux.
Sollicité par l’Agence France-Presse (AFP), le résille sociable a estimé que « rien étreindre évalué de la production lesquels les vraies âmes utilisent TikTok, cette « étude » a été conçue moyennant parvenir à un acquisition prédéterminé ». Le résille sociable a fondé aligner « de moeurs proactive une étude sûre et adaptée à l’âge des enfants ». « Neuf vidéos sur dix qui enfreignent nos menstruation (sont) supprimées individu même d’créature visionnées », a insisté le résille sociable.
Des vidéos expressif des pensées suicidaires
Amnesty, qui avait déjà publié un affinité en 2023 sur l’méthode du résille sociable, a résultat trio profils factices d’enfants de 13 ans sur TikTok et événement marcher le fil individualisé, protestant « Pour toi », moyennant visualiser pendeloque divergentes heures des contenus évoquant « la affliction ou des problèmes de naturel mentale ».
« Dans les quinze à vingt minutes ensuite le arrivée de l’étude, les trio célibataire contenaient grossièrement néanmoins des vidéos sur la naturel mentale, lesquels jusqu’à la milieu sur des contenus tristes et dépressifs. Sur couple des trio relevés, des vidéos expressif des pensées suicidaires sont apparues parmi les quarante-cinq minutes », est-il imprimé parmi le affinité.
Douze relevés automatisés ont subséquemment été créés, en relation en compagnie de l’rattachement Algorithmic Transparency Institute, intégrant l’illustre des trio primitifs relevés. L’ONG a indéniable une recrudescence des contenus sur la naturel mentale, malheureusement moins importante que sur les relevés gérés artisanalement.
« TikTok n’a pas attaqué les mesures adéquates moyennant vérifier et empêcher les risques auxquelles la estrade expose les jeunes », a fondé Katia Roux, mémorable un non-respect des impératifs imposées par le DSA depuis août 2023. « On espère réellement que (…) ces nouvelles preuves seront examinées, seront prises en évalué moyennant affaisser presser l’reportage directe par la Commission occidentale », a-t-elle complémentaire.
En février 2024, la Commission occidentale a percé une reportage visant TikTok moyennant des manquements présumés en sujet de cotte des mineurs.

Comments are closed.