La personnalité pakistanaise des médias sociaux, Alina Amir, a transformé une expérience profondément personnelle d’abus numérique en une campagne publique contre les deepfakes générés par l’intelligence artificielle, faisant directement appel au ministre en chef du Pendjab et offrant une récompense financière pour toute information conduisant à l’arrestation des responsables de la fabrication et de la distribution d’une fausse vidéo intime qui lui est faussement attribuée.
Amir, connue sous le nom de « Sarsarahat Girl » après qu’une de ses vidéos de synchronisation labiale soit devenue virale à travers le Pakistan et l’Inde en 2025, avait accumulé plus de 2,5 millions de followers sur Instagram et 2,3 millions sur TikTok lorsqu’elle s’est retrouvée au centre d’une campagne de cyberharcèlement en janvier 2026, lorsqu’une vidéo deepfake générée par l’IA a été largement diffusée en ligne sous des légendes trompeuses, affirmant qu’elle montrait des images privées d’elle divulguées.
Elle a d’abord choisi le silence, observant la situation pendant une semaine entière. Lorsque les fausses allégations se sont intensifiées et que des publications trompeuses ont commencé à apparaître même dans ses propres sections de commentaires sur les réseaux sociaux, elle a publié une déclaration vidéo détaillée sur Instagram. « Je ne voulais pas parler publiquement de cette question la semaine dernière, mais lorsque j’ai vu de faux messages sur ma vidéo divulguée ces derniers jours, je me suis sentie obligée de parler », a-t-elle déclaré.
Amir était sans équivoque : le contenu n’avait aucun lien avec elle et était entièrement généré par l’IA. Elle l’a décrit comme une cybercriminalité et une forme calculée de harcèlement conçue spécifiquement pour intimider et humilier les femmes. «Nous sommes en 2026», a-t-elle déclaré. « Aucune femme ne devrait se sentir obligée de garder le silence. Si vous dites la vérité, vous devez vous défendre sans crainte. »
Elle a lancé un appel direct à la ministre en chef du Pendjab, Maryam Nawaz Sharif, l’exhortant à prendre des mesures strictes contre les individus qui créent des vidéos de femmes générées par l’IA pour nuire à leur réputation et détruire des vies. Elle a également félicité le Département de la cybercriminalité du Pendjab pour son travail en cours et a exhorté les responsables à veiller à ce que les auteurs soient sévèrement punis.
Amir a averti que le problème s’étend bien au-delà des célébrités et des créateurs de contenu. Les femmes ordinaires, a-t-elle noté, sont de plus en plus ciblées, avec du matériel deepfake parfois envoyé directement aux familles des victimes, provoquant un traumatisme émotionnel durable et des dommages sociaux. Elle a souligné que cette tendance en fait une crise sociétale plutôt que personnelle.
Son cas est devenu un catalyseur pour les appels visant à appliquer plus rigoureusement la loi pakistanaise de 2025 sur la prévention des crimes électroniques (amendement), les défenseurs des droits numériques arguant que les sanctions existantes sont insuffisantes pour dissuader une pratique qui se développe rapidement à mesure que les outils d’IA deviennent plus accessibles.
Le cas d’Amir n’est pas isolé. Cela fait suite à des attaques similaires générées par l’IA ciblant d’autres influenceurs pakistanais, notamment Fatima Jatoi et Payal Gaming, suggérant un modèle coordonné d’abus numériques dirigés contre les femmes disposant de grandes plateformes publiques.
Sa décision de rendre publique la situation plutôt que d’absorber les dégâts en silence a recadré une histoire que les cyberharceleurs avaient clairement l’intention de transformer en arme contre elle en une histoire sur la responsabilité, le courage et le besoin urgent de garanties juridiques et techniques adaptées à la vitesse à laquelle la technologie des deepfakes évolue.






