Nouvelles Du Monde

L’intelligence artificielle est utilisée à mauvais escient pour créer des images sexualisées d’enfants – NRK Trøndelag

L’intelligence artificielle est utilisée à mauvais escient pour créer des images sexualisées d’enfants – NRK Trøndelag

– Ce type de matériel d’abus n’a presque pas de frontières, dit Svein Øverland.

Il est spécialiste en psychologie et travaille pour aider les personnes qui ont des pensées pédophiles.

Maintenant, il craint les conséquences de la diffusion d’images d’abus générées par l’IA.

– De telles images peuvent augmenter le risque qu’une personne atteinte de pédophilie maltraite un enfant.

Selon Øverland, le fait que les images ne soient pas réelles peut donner moins mauvaise conscience à ceux qui les regardent. Il le fait avec inquiétude.

– Il y a beaucoup de pédophiles qui n’agressent jamais les enfants, mais plus quelqu’un se masturbe devant les enfants, plus leur pulsion deviendra forte.

Øverland craint que le seuil d’utilisation d’images d’abus lorsqu’elles sont réalisées avec l’IA soit abaissé. À la fois parce qu’ils deviennent plus accessibles et parce qu’ils ne sont pas réels, ils peuvent apaiser la conscience.

Photo : Erlend Lånke Solbu / NRK

– Crime sans limite

Les médias britanniques ont récemment révélé que les pédophiles utilisent l’intelligence artificielle pour créer du matériel d’abus réaliste. Il écrit Bbc.

Selon Kripos, cela devient de plus en plus courant en Norvège également.

Katrine Olsen, responsable de la section des abus liés à Internet, Kripos

Katrine Olsen, chef de section, déclare que la Kripos attache une grande importance au renforcement des compétences dans le domaine de l’IA, car la technologie est de plus en plus avancée.

Photo: PRIVÉ

Maintenant, ils se préparent à une forte augmentation, explique Katrine Olsen, chef de section de la section des agressions liées à Internet à Kripos.

Olsen dit également qu’ils ont surveillé plusieurs forums d’abus où il est exprimé qu’ils veulent plus d’images générées par l’IA.

– Il s’agit d’un crime sans frontières et dans de nombreux pays, il ne sera pas poursuivi.

Elle dit que différentes pratiques dans différents pays rendent problématique la lutte contre le matériel abusif.

En Norvège, cela échoue §311 dans le Code pénal sur les représentations d’abus sexuels contre des enfants ou les représentations qui sexualisent les enfants.

Absence de réglementation pour l’intelligence artificielle

– Les images sont photoréalistes, donc voir la différence entre le matériel généré par l’IA et le matériel d’abus réel peut potentiellement devenir complètement impossible, explique Inga Strümke.

Elle est professeure agrégée à NTNU et a écrit un livre sur l’intelligence artificielle.

Elle craint que les images générées par l’IA ne rendent beaucoup plus difficile la recherche des victimes réelles.

– Que ce type de technologie soit mal utilisé n’est pas surprenant. Lorsque vous développez une technologie puissante, il est presque garanti qu’elle finira par être mal utilisée.

Elle estime qu’une loi KI sur la réglementation ne peut pas arriver assez rapidement.

– Internet n’a pas de frontières nationales. Les utilisateurs norvégiens peuvent facilement trouver de telles images même si elles se trouvent sur des sites étrangers, explique Inga Strümke, chercheuse à KI.

Depuis 2021, l’UE travaille sur une loi sur l’IA, la soi-disant “AI ACT” de l’UE. Il a été récemment voté mais n’est pas entré en vigueur.

Inga Strümke

Inga Strümke est professeur associé à NTNU et a écrit un livre sur l’intelligence artificielle.

Photo : Ine Julia Rojahn Schwebs

2023-07-14 00:08:08
1689289989


#Lintelligence #artificielle #est #utilisée #mauvais #escient #pour #créer #des #images #sexualisées #denfants #NRK #Trøndelag

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT