Kies land en taal

Het Congres moet een einde maken aan een nieuw AI-hulpmiddel dat wordt gebruikt om kinderen uit te buiten

We hebben hulp nodig van wetgevers om AI-ondersteund online kindermisbruik aan te pakken

Een grote release van games vervangt acteurs door kunstmatige intelligentie

De gamewereld wordt opgeschrikt door een AI-controverse die de miljardenindustrie op zijn kop kan zetten.

Seksuele roofdieren gebruiken een krachtig nieuw hulpmiddel om kinderen uit te buiten -- AI-beeldgeneratoren. Gebruikers op één enkel dark-web forum deelden in slechts één maand tijd bijna 3.000 door AI gegenereerde afbeeldingen van seksueel misbruik van kinderen, volgens een recent rapport van de in het Verenigd Koninkrijk gevestigde Internet Watch Foundation.

Helaas zijn de huidige wetten voor seksueel misbruik van kinderen verouderd. Ze houden onvoldoende rekening met de unieke gevaren die AI en andere opkomende technologieën met zich meebrengen. Wetgevers moeten snel handelen om wettelijke bescherming te bieden.

De nationale CyberTipline -- een meldingssysteem voor vermoedelijke online uitbuiting van kinderen -- ontving in 2022 maar liefst 32 miljoen meldingen, tegenover 21 miljoen slechts twee jaar eerder. Dat nu al verontrustende aantal zal zeker toenemen met de opkomst van beeldgenererende AI-platforms.

AI-platforms worden "getraind" op bestaand beeldmateriaal. Bronnen die worden gebruikt om beelden van misbruik te creëren, kunnen echte kindergezichten zijn die van sociale media zijn gehaald, of foto's van uitbuiting in het echte leven. Gezien de tientallen miljoenen online beelden van misbruik, is er een bijna onuitputtelijke hoeveelheid bronmateriaal waaruit AI nog schadelijkere beelden kan genereren.

De meest geavanceerde door AI gegenereerde afbeeldingen zijn nu vrijwel niet meer te onderscheiden van ongewijzigde foto's. Onderzoekers hebben nieuwe afbeeldingen van oude slachtoffers gevonden, afbeeldingen van "ontgroende" beroemdheden die in misbruikscenario's als kinderen worden afgebeeld, en "naakte" afbeeldingen van anderszins onschuldige foto's van geklede kinderen.

De omvang van het probleem neemt elke dag toe. Tekst-naar-beeldsoftware kan gemakkelijk beelden van kindermisbruik creëren op basis van wat de dader maar wil zien. En veel van deze technologie kan gedownload worden, zodat daders offline afbeeldingen kunnen maken zonder bang te hoeven zijn om ontdekt te worden.

AI gebruiken om afbeeldingen van seksueel misbruik van kinderen te maken is geen misdaad zonder slachtoffers. Achter elke AI-afbeelding zitten echte kinderen. Overlevenden van uitbuiting in het verleden worden opnieuw slachtoffer wanneer er nieuwe afbeeldingen worden gemaakt met hun gelijkenis. En studies tonen aan dat een meerderheid van de mensen die materiaal over seksueel misbruik van kinderen bezitten of verspreiden, ook hands-on misbruik plegen.

Volwassenen kunnen ook tekstgenererende AI-platforms zoals ChatGPT gebruiken om kinderen beter te lokken, waarbij een oude tactiek wordt bijgewerkt. Criminelen gebruiken al heel lang valse online identiteiten om jongeren in games of op sociale media te ontmoeten, hun vertrouwen te winnen en hen te manipuleren om expliciete afbeeldingen te sturen, om hen vervolgens te "sextorteren" voor geld, meer afbeeldingen of fysieke handelingen.

Maar ChatGPT maakt het schokkend eenvoudig om zich voor te doen als een kind of tiener met jeugdig taalgebruik. De criminelen van tegenwoordig kunnen AI-platforms gebruiken om realistische berichten te genereren met als doel een jongere te manipuleren om een online interactie aan te gaan met iemand van hun eigen leeftijd. Nog angstaanjagender is dat veel moderne AI-tools in staat zijn om snel te "leren" - en mensen dus te leren - welke groomingtechnieken het meest effectief zijn.

Kunstmatige Intelligentie
Kunstmatige intelligentie (AI) ontwikkelt zich snel en biedt ons ongekende voordelen, maar brengt ook ernstige risico's met zich mee, zoals chemische, biologische, radiologische en nucleaire (CBRN) bedreigingen(Cyberguy.com)

Kunstmatige intelligentie (AI) ontwikkelt zich razendsnel en biedt ons ongekende voordelen, maar brengt ook ernstige risico's met zich mee, zoals een chemische, biologische, radiologische en nucleaire (CBRN) bedreiging (Cyberguy.com)

President Biden heeft onlangs een uitvoerend bevel getekend dat gericht is op het beheersen van de risico's van AI, waaronder het beschermen van de privacy en persoonlijke gegevens van Amerikanen. Maar we hebben hulp nodig van wetgevers om AI-ondersteund online kindermisbruik aan te pakken.

Om te beginnen moeten we de federale wettelijke definitie van kinderpornomateriaal aanpassen, zodat ook door AI gegenereerde afbeeldingen hieronder vallen. Zoals de wet nu is, moeten aanklagers schade aan een echt kind aantonen. Maar deze eis past niet meer bij de technologie van vandaag. Een verdedigingsteam zou kunnen beweren dat AI-materiaal over seksueel misbruik van kinderen geen echt kind afbeeldt en daarom niet schadelijk is, ook al weten we dat AI-gegenereerde afbeeldingen vaak afkomstig zijn van bronmateriaal dat echte kinderen slachtoffert.

Ten tweede moeten we beleid aannemen dat techbedrijven verplicht om uitbuitend materiaal continu te controleren en te rapporteren. Sommige bedrijven scannen proactief op dergelijke afbeeldingen, maar dat is niet verplicht. Slechts drie bedrijven waren verantwoordelijk voor 98% van alle CyberTips in 2020 en 2021: Facebook, Google en Snapchat.

In veel wetten over seksueel misbruik van kinderen in staten worden "verplichte melders" genoemd, of professionals zoals leraren en artsen die wettelijk verplicht zijn om vermoedelijk misbruik te melden. Maar in een tijdperk waarin we zo'n groot deel van ons leven online doorbrengen, zouden werknemers van sociale media en andere techbedrijven soortgelijke wettelijk verplichte meldingsverantwoordelijkheden moeten hebben.

Tot slot moeten we opnieuw nadenken over het gebruik van end-to-end encryptie, waarbij alleen de verzender en ontvanger toegang hebben tot de inhoud van een bericht of bestand. Hoewel het geldige toepassingen heeft, zoals bankieren of medische dossiers, kan end-to-end encryptie mensen ook helpen bij het opslaan en delen van beelden van kindermisbruik. Om te illustreren hoeveel misbruikers onopgemerkt kunnen blijven, moet u bedenken dat van de 29 miljoen tips die de CyberTipline in 2021 ontving, er slechts 160 afkomstig waren van Apple, dat end-to-end encryptie voor iMessages en iCloud handhaaft.

Zelfs als wetshandhavers een bevel hebben om toegang te krijgen tot de bestanden van een dader, kan een techbedrijf met end-to-end versleuteling beweren dat het geen toegang heeft tot die bestanden en niet kan helpen. Een industrie die gebouwd is op innovatie is toch zeker wel in staat om oplossingen te ontwikkelen om onze kinderen te beschermen -- en dat tot prioriteit te maken.

AI-technologie en sociale media ontwikkelen zich elke dag. Als wetgevers nu actie ondernemen, kunnen we grootschalige schade aan kinderen voorkomen.

Teresa Huizar is CEO van National Children's Alliance, Amerika's grootste netwerk van opvangcentra voor slachtoffers van kindermisbruik.

Gepubliceerd door FoxNews op 3 januari 2024, geschreven door Teresa Huizar.

Er zijn veel manieren waarop u betrokken kunt raken en een verschil kunt maken om kindermishandeling te voorkomen. Kom in actie en kies de manier om bij te dragen die voor u het beste werkt.

Publish modules to the "offcanvs" position.