Une pétition a été lancée par le collectif Enfantiste ce mercredi 7 janvier 2026. En cause ? Les demandes de certains internautes, qui ont sollicité Grok, l’IA du réseau social X, pour dénuder des victimes de l’incendie de Crans-Montana, a rapporté FranceInfo.
“Une profanation numérique” et “une violence sexuelle symbolique exercée sur des victimes qui ne peuvent plus se défendre et sur leurs familles déjà endeuillées”. C’est ainsi que le collectif Enfantiste a qualifié les demandes de certains internautes effectuées auprès de Grok, l’IA du réseau social X. Après le drame de Crans-Montana, qui a coûté la vie à 40 personnes et en a blessé 116 autres lors de la nuit du réveillon du 31 décembre, des personnes ont, en effet, sollicité l’intelligence artificielle pour qu’elle dénude certaines victimes du drame. Un utilisateur a notamment demandé que l’IA de mettre Cyane Panine, la serveuse de 24 ans décédée dans le bar, en maillot de bain. Et le même internaute de répondre à la photo générée : “Ouf… Elle me donne chaud !” Des victimes mineures ont également fait l’objet de ces atroces requêtes.
Face à ces deepfakes, le collectif Enfantiste a décidé de lancer une pétition, a rapporté FranceInfo jeudi 8 janvier 2026. Il y réclame notamment “l’identification et la poursuite judiciaire des auteurs de ces actes”, mais aussi “le retrait immédiat de tout contenu concerné”. La Commission européenne a annoncé ce jeudi avoir imposé au réseau social une mesure conservatoire, lui ordonnant “de conserver tous ses documents internes relatifs à Grok, et ce jusqu’à fin 2026″. Eric Bothorel, député des Côtes-d’Armor, qui a saisi le parquet de Paris le 2 janvier dernier avec Arthur Delaporte, a confié à nos confrères : “C’est totalement indécent. Les responsables de cet outil sont inconséquents.” Et l’homme de préciser : “Permettre cela est une honte absolue. Les équipes de modération d’Elon Musk ne font rien contre cette mode de mettre tout le monde en bikini.”
