AI-gegenereerde afbeeldingen openen deuren naar een verontrustende trend gericht op kinderen
Vormt kunstmatige intelligentie een bedreiging voor de mensheid?
Fox News-correspondent Grady Trimble heeft het laatste nieuws over de angst dat de technologie uit de hand zal lopen in 'Special Report'
Kunstmatige intelligentie opent de deur naar een verontrustende trend van mensen die realistische beelden van kinderen in seksuele omgevingen maken, waardoor het aantal gevallen van zedendelicten tegen kinderen in het echte leven zou kunnen toenemen, waarschuwen experts.
AI-platforms die menselijke conversaties kunnen nabootsen of realistische afbeeldingen kunnen creëren, zijn eind vorig jaar tot in 2023 explosief in populariteit gestegen na de release van chatbot ChatGPT, die een keerpunt vormde voor het gebruik van kunstmatige intelligentie. Terwijl de nieuwsgierigheid van mensen over de hele wereld werd gewekt door de technologie voor werk of schooltaken, hebben anderen de platforms omarmd voor meer snode doeleinden.
De National Crime Agency (NCA), de Britse instantie die de georganiseerde misdaad bestrijdt, waarschuwde deze week dat de verspreiding van machinaal gegenereerde expliciete afbeeldingen van kinderen een "radicaliserend" effect heeft en pedofilie en storend gedrag tegen kinderen "normaliseert".
"Wij zijn van mening dat het bekijken van deze afbeeldingen - of ze nu echt zijn of door AI gegenereerd - het risico aanzienlijk verhoogt dat daders overgaan tot het zelf seksueel misbruiken van kinderen," zei NCA-directeur-generaal Graeme Biggar in een recent rapport.

Het bureau schat dat er 830.000 volwassenen zijn, oftewel 1,6% van de volwassen bevolking in het Verenigd Koninkrijk, die een of ander seksueel gevaar vormen voor kinderen. Het geschatte aantal is 10 keer zo groot als de gevangenispopulatie in Groot-Brittannië, volgens Biggar.
Bij de meeste gevallen van seksueel misbruik van kinderen gaat het volgens Biggar om het bekijken van expliciete beelden, en met behulp van AI zou het maken en bekijken van seksuele beelden het misbruiken van kinderen in de echte wereld kunnen "normaliseren".
"[De geschatte cijfers] weerspiegelen deels een beter begrip van een dreiging die in het verleden werd onderschat, en deels een echte toename veroorzaakt door het radicaliserende effect van het internet, waar de wijdverspreide beschikbaarheid van video's en beelden van kinderen die worden misbruikt en verkracht, en groepen die de beelden delen en bespreken, dergelijk gedrag heeft genormaliseerd," zei Biggar.

In de VS vindt een soortgelijke explosie plaats van het gebruik van AI om seksuele afbeeldingen van kinderen te maken.
"Afbeeldingen van kinderen, inclusief de inhoud van bekende slachtoffers, worden opnieuw gebruikt voor deze echt kwaadaardige output," vertelde Rebecca Portnoff, de directeur van datawetenschap bij Thorn, een non-profit die werkt aan de bescherming van kinderen, vorige maand aan de Washington Post.
"Slachtofferidentificatie is al een naald-in-een-hooiberg probleem, waarbij wetshandhaving probeert een kind te vinden dat in gevaar is," zei ze. "Het gemak waarmee deze tools gebruikt kunnen worden is een belangrijke verschuiving, evenals het realisme. Het maakt alles alleen maar uitdagender."
Populaire AI-sites die afbeeldingen kunnen maken op basis van eenvoudige aanwijzingen hebben vaak communityrichtlijnen die het maken van verontrustende foto's voorkomen.

Dergelijke platforms worden getraind op miljoenen afbeeldingen van over het hele internet die als bouwstenen dienen voor AI om overtuigende afbeeldingen te maken van mensen of locaties die in werkelijkheid niet bestaan.
Midjourney, bijvoorbeeld, vraagt om PG-13 inhoud die "naaktheid, geslachtsorganen, fixatie op naakte borsten, mensen in douches of op toiletten, seksuele beelden, fetisjen" vermijdt DALL-E, OpenAI's platform voor het maken van afbeeldingen, staat alleen G-rated inhoud toe en verbiedt afbeeldingen met "naaktheid, seksuele handelingen, seksuele diensten of inhoud die anders bedoeld is om seksuele opwinding te veroorzaken" Op duistere webforums met mensen met kwade bedoelingen worden echter workarounds besproken om verontrustende afbeeldingen te maken, volgens verschillende rapporten over AI en seksuele misdrijven.

Biggar merkte op dat de door AI gegenereerde beelden van kinderen politie en wetshandhavers ook in een doolhof storten van het ontcijferen van valse beelden van die van echte slachtoffers die hulp nodig hebben.
"Het gebruik van AI voor dit doel zal het moeilijker maken om echte kinderen te identificeren die bescherming nodig hebben en zal seksueel misbruik van kinderen verder normaliseren onder daders en mensen in de periferie van het delict. We zijn ook van mening dat het bekijken van deze beelden - of ze nu echt zijn of door AI zijn gegenereerd - het risico vergroot dat sommige daders overgaan tot het seksueel misbruiken van kinderen in het echte leven," aldus Biggar in een reactie aan Fox News Digital.
"In samenwerking met onze internationale politiepartners combineren we onze technische vaardigheden en capaciteiten om de dreiging te begrijpen en ervoor te zorgen dat we de juiste hulpmiddelen hebben om AI-gegenereerd materiaal aan te pakken en kinderen te beschermen tegen seksueel misbruik."
AI-gegenereerde afbeeldingen kunnen ook worden gebruikt bij sextortion-zwendel, waarvoor de FBI vorige maand een waarschuwing heeft uitgegeven.
Deepfakes bestaan vaak uit het bewerken van video's of foto's van mensen om ze op iemand anders te laten lijken met behulp van diep lerende AI en zijn gebruikt om slachtoffers lastig te vallen of geld in te zamelen, waaronder kinderen.
"Kwaadwillende actoren gebruiken technologieën en diensten voor het manipuleren van inhoud om foto's en video's - meestal afkomstig van iemands sociale media-account, open internet, of opgevraagd bij het slachtoffer - te gebruiken om er seksueel getinte afbeeldingen van te maken die levensecht lijken op het slachtoffer, en deze vervolgens te verspreiden op sociale media, openbare forums of pornografische websites," zei de FBI in juni.
"Veel slachtoffers, waaronder minderjarigen, zijn zich er niet van bewust dat hun afbeeldingen gekopieerd, gemanipuleerd en verspreid zijn totdat iemand anders hen erop attendeert."