ChroniquesUne

Quand l’intelligence artificielle devient complice du pire

© D.R

IA criminelle. Le prédateur d’aujourd’hui n’a plus besoin de contact, ni de risque. Il a un substitut : un contenu fabriqué sur mesure, qui lui garantit à la fois excitation et impunité.

Loin de n’être qu’un outil de surveillance ou de détection, l’intelligence artificielle est désormais détournée à des fins sordides. Dans la lutte contre la pédocriminalité, elle devient aussi bien un levier pour les prédateurs qu’un espoir pour les victimes. Une réalité que décrypte ici un psychiatre.
Il fut un temps – à peine hier – où l’horreur pédocriminelle se tapissait dans les marges du réel, captée dans l’ombre par des caméras volées, distribuée clandestinement, dénoncée avec lenteur. Aujourd’hui, elle se fabrique. À la chaîne. Par des machines.
Des intelligences artificielles génératives permettent désormais de créer des images d’abus d’enfants sans caméra, sans cri, sans trace physique, mais avec un réalisme tel que la frontière entre le faux et l’abject s’effondre. Il suffit de quelques clics pour transformer une photo anodine – parfois extraite des réseaux sociaux familiaux – en scène pornographique crédible, que la machine retouche, amplifie, fantasme. Ces contenus, produits à la demande, circulent sur des forums cryptés, alimentant les pulsions de ceux qui ne cherchent plus la réalité, mais sa simulation parfaite.

Le plus glaçant, c’est que ces images ne mettent parfois en scène aucun enfant réel. Et pourtant, elles alimentent les mêmes réseaux, les mêmes compulsions, les mêmes passages à l’acte. Pour le psychiatre, cette bascule est vertigineuse. Le prédateur d’aujourd’hui n’a plus besoin de contact, ni de risque. Il a un substitut : un contenu fabriqué sur mesure, qui lui garantit à la fois excitation et impunité.
Mais c’est un leurre. Le fantasme nourri par l’IA ne reste jamais contenu. Il encourage, désinhibe, prépare. Le virtuel devient préméditation. L’écran devient passerelle.
Du côté des victimes, le danger n’est pas moindre. Certains enfants, dont les visages ont été utilisés à leur insu, subissent un viol symbolique, une atteinte irréversible à leur intimité. Comment reconstruire une confiance en soi quand on découvre qu’un double numérique de soi-même a été utilisé dans un scénario pornographique, sans son consentement, sans même son savoir ?
Face à cela, les réponses doivent être à la hauteur de la menace. Des solutions existent. Techniques d’abord : des algorithmes comme ceux développés par Thorn ou Project Arachnid scannent le Web pour identifier les contenus suspects, les classer, les signaler. Des systèmes de marquage des images authentiques (watermarking) sont en cours de déploiement. Mais l’IA criminelle évolue plus vite que l’IA protectrice.
Le droit, lui, peine à suivre. Dans de nombreux pays, la loi ne permet pas encore de sanctionner la création ou la possession d’une image pédopornographique générée par intelligence artificielle, dès lors qu’aucun enfant réel n’est identifié. La France tente d’y remédier. Une proposition de loi entend punir toute fabrication ou détention de contenus pédophiles générés numériquement. Mais la bataille juridique ne fait que commencer.

Et puis il y a le terrain humain. La psychiatrie, justement, peut – et doit – jouer un rôle central. Il ne s’agit pas seulement de traquer, mais de comprendre. De savoir ce qui pousse un individu à chercher ce type de contenus, même générés. D’identifier les profils à risque, d’anticiper, d’éduquer. Car les auteurs ne sont pas tous des monstres isolés. Ce sont parfois des enseignants, des pères de famille, des voisins. Ils ne vivent pas dans la marge. Ils vivent parmi nous.
L’intelligence artificielle n’est ni l’ennemie ni la solution. Elle est l’amplificateur. Elle peut être un miroir noir ou un phare. Ce n’est pas à elle de choisir. C’est à nous.
Tant que nous laisserons les machines entre les mains de ceux qui violent l’enfance en toute invisibilité, nous serons responsables de chaque image, chaque crime, chaque silence. Mais si nous en faisons des alliées, si nous légiférons, si nous éduquons, alors peut-être qu’un jour, ce combat n’aura plus lieu d’être.
Mais ce jour ne viendra pas seul. Il doit être construit. Conçu. Programmé. Comme une réponse humaine face à la perversion technologique.
«Le fantasme nourri par l’IA ne reste jamais contenu. Le virtuel devient préméditation. L’écran devient passerelle» – Dr.Imane Kendili.

Related Articles

ActualitéUneVidéos

Le round-up de l’actualité de la semaine pour rester informé

Retrouvez l’essentiel des informations développées dans nos éditions quotidiennes et nos différentes...

ActualitéSportsUne

CAN féminine de football : le Maroc bat le Mali et se qualifie pour les demi-finales

La sélection marocaine de football s’est qualifiée pour les demi-finales de la...

EconomieUne

Financement : SAHAM BANK obtient 55 millions d’euros de la BERD pour accélérer la finance verte au Maroc

SAHAM BANK renforce son engagement en faveur de la transition écologique en...