Ce qui devait être une révolution ludique pour divertir les plus jeunes est en train de virer au cauchemar numérique.

Les vidéos pour enfants créées par IA virent au cauchemar
Les contenus animés produits grâce à l’intelligence artificielle et diffusés sur YouTube ou TikTok, pourtant conçus pour le divertissement des plus jeunes, dérivent fréquemment vers des mises en scène violentes ou choquantes. Derrière des apparences colorées et des personnages mignons se cache un univers algorithmique où le bon goût et la cohérence ont disparu depuis longtemps.
Prenons un exemple parmi tant d’autres : la série des « Super Cat Papa », où un chat musclé et son petit enchaînent tragédies et scènes sanglantes. Ces vidéos, vues des centaines de millions de fois, véhiculent des messages inappropriés : argent glorifié, maltraitance, corps mutilés et blagues scatologiques. Certaines vont jusqu’à représenter des violences physiques, des humiliations et des situations à connotation sexuelle, tout en se présentant comme du contenu pour enfants.
Sous les couleurs de l’innocence, les cauchemars de l’IA
Depuis plusieurs années, YouTube Kids et les sections Shorts de la plateforme sont inondées de vidéos étranges produites à la chaîne par des fermes de contenus sans scrupule. Ces créateurs automatisés visent avant tout le clic et la rétention d’audience, sans se soucier de l’âge de leur public. Ce phénomène n’est pas nouveau, on se souvient des parodies douteuses de dessins animés populaires et des vidéos mettant en scène des adultes déguisés en super-héros dans des situations absurdes.
Mais depuis l’explosion des générateurs de vidéos par IA en 2024, la production de ce que les internautes surnomment désormais le « slop », ces contenus bâclés et répétitifs, a atteint un nouveau palier. Les images sont de plus en plus réalistes, les personnages familiers, souvent inspirés de franchises et de mèmes viraux, deviennent des icônes recyclées dans des scénarios incohérents, parfois inquiétants.
L’intelligence artificielle plus rapide que la modération
Alertés depuis le début de l’année 2025, les observateurs et les parents s’inquiètent de cette nouvelle génération de contenus toxiques. Le magazine Wired a d’ailleurs consacré une enquête à ce phénomène en mai dernier, soulignant un problème majeur : les outils de modération de YouTube peinent à suivre la cadence. Chaque fois qu’une vidéo choquante est supprimée, des dizaines d’autres sont recréées automatiquement et repostées en quelques heures.
L’IA, censée simplifier la création, est devenue donc un outil incontrôlable pour inonder les plateformes de productions malsaines. Une course sans fin entre la modération humaine et des algorithmes capables de générer, sans émotion ni discernement, les cauchemars numériques de l’enfance.
Source: L’ADN