Kies land en taal

Het AI-veiligheidsinstituut van de regering Biden is niet 'voldoende' om risico's aan te pakken, moet 'procedures' van gebruikers controleren: expert

VS richten AI-veiligheidsinstituut op om normen op te stellen en bedrijven eraan te houden

CEO van AI-bedrijf praat over nieuw platform voor betrouwbaarheid van inhoud

Pat Condo, CEO van Seekr Technologies, sprak met Fox News Digital over een samenwerking met Bear Grylls om digitale mediageletterdheid onder jongeren te stimuleren.

Experts vertellen Fox News Digital dat het plan van de regering Biden om een veiligheidscommissie voor kunstmatige intelligentie (AI) op te richten "noodzakelijk" maar niet "voldoende" kan blijken om potentiële risico's voor de ontluikende technologie aan te pakken.

"De kans is groot dat [het algoritme] niet de plek is waar het grootste deel van het risico ligt," zei Phil Siegel, oprichter van het Center for Advanced Preparedness and Threat Response Simulation (CAPTRS). "Het is waarschijnlijker dat het risico ligt bij de gebruikers die het voor slechte doeleinden gebruiken of het gewoon verkeerd gebruiken."

President Biden ondertekende maandag een uitvoerend bevel dat volgens het Witte Huis de "meest ingrijpende maatregelen bevat die ooit zijn genomen om Amerikanen te beschermen tegen de potentiële risico's van AI-systemen" - de eis voor bedrijven om de overheid op de hoogte te stellen wanneer ze nieuwe modellen trainen en het delen van de resultaten van "veiligheidstests van leesteams"

"Deze maatregelen zullen ervoor zorgen dat AI-systemen veilig, beveiligd en betrouwbaar zijn voordat bedrijven ze openbaar maken," aldus het Witte Huis over het uitvoeringsbesluit.

De regering kondigde ook de oprichting aan van het AI Safety Institute - onder toezicht van het National Institute of Standards and Technology - dat "de strenge normen zal vaststellen voor uitgebreide rode-teamtesten om de veiligheid te garanderen voordat ze openbaar worden gemaakt

Minister van Handel Gina Raimondo
Minister van Handel Gina Raimondo zei dat de regering Biden haar AI Safety Institute zou gebruiken om bekende en opkomende risico's van "grensverleggende" AI-modellen te evalueren en dat de privésector "moet bijspringen."(AP Photo / Andrew Harnik / File)

Tijdens een toespraak op de Bletchley Park-top in het Verenigd Koninkrijk zei de Amerikaanse minister van Handel, Gina Raimondo, woensdag dat de regering Biden haar nieuwe AI Safety Institute zou gebruiken om bekende en opkomende risico's van "grensverleggende" AI-modellen te evalueren en dat de privésector "moet bijspringen"

Siegel vergeleek de aanpak van het Witte Huis met die van een luchtvaartmaatschappij die een plan controleert op "veiligheid", maar geen onderhoudsprocedures, de opleiding van de piloten of de bemanning controleert.

"Ze zijn allemaal nodig," zei hij. "Op dezelfde manier kan een veiligheidsraad niet alleen de algoritmen controleren. Het moet ook de procedures voor de gebruikers controleren."

FTC-voorzitter overhandigt Biden een pen
Experts vertellen Fox News Digital dat het plan van de regering Biden om een veiligheidscommissie voor kunstmatige intelligentie op te richten "noodzakelijk" maar niet "voldoende" kan blijken om potentiële risico's voor de ontluikende technologie aan te pakken.(Alex Wong / Getty Images / File)

"We kunnen ervoor zorgen dat techaanbieders helpen," vervolgde hij. "Net zoals we de banken KYC-procedures (ken uw klant) laten invoeren om het witwassen van geld te voorkomen, kunnen we van de techaanbieders eisen dat ze KYC-procedures invoeren voor de veiligheid van gebruikersapplicaties," voegde Siegel eraan toe.

Het Center for Advanced Preparedness and Threat Response Simulation pakt dit soort problemen regelmatig aan, waarbij het kijkt naar de besluitvorming en intuïtie van gebruikers in de gezondheidszorg, techniek, openbaar beleid en andere sectoren en hen traint in games om deze vaardigheden te verbeteren. Het gedrag van gebruikers blijft dus een centraal aandachtspunt - net als bij AI het geval zal zijn.

Veel critici van AI hebben sinds eerder dit jaar gewezen op de talloze valkuilen die de technologie met zich meebrengt, van deepfake-technologie die verkiezingen verstoort en kindermisbruikmateriaal genereert tot het gebruik van door AI gegenereerde algoritmen om zelfs de meest complexe digitale beveiligingssystemen te doorbreken en toegang te krijgen tot gevoelige informatie.

Bletchley Park, geboorteplaats van rekenmachines
Het Bletchley Park Estate in het Verenigd Koninkrijk wordt getoond op de tweede dag van de AI Safety Summit op 2 november 2023.(Chris J. Ratcliffe / Bloomberg via Getty Images)

Christopher Alexander, chief analytics officer van Pioneer Development Group, erkende dat het weliswaar een goed idee is om bedrijven te dwingen hun informatie te delen in plaats van het weg te stoppen - in wat een expert eerder aan Fox News Digital beschreef als een "zwarte doos" van inhoud - maar dat het huidige systeem "geen transparant beroepsproces" lijkt te hebben

Alexander vertelde Fox News Digital dat hij zich ook zorgen maakte dat "politieke agenda's het goedkeuringsproces van de veiligheid zouden kunnen beïnvloeden," het agentschap, dat is opgericht door een uitvoerend bevel, plaatst zijn management in opdracht van de zittende president.

Sommige critici hebben al zorgen geuit over politieke vooroordelen, zoals in het geval van China dat eist dat elke nieuwe AI-technologie voldoet aan de socialistische waarden van de regerende partij.

Greg Norman van Fox News Digital en Reuters hebben aan dit verslag bijgedragen.

Peter Aitken is een verslaggever van Fox News Digital met een focus op nationaal en wereldwijd nieuws.

Gepubliceerd door FoxNews op 3 november 2023, geschreven door Peter Aitken.

Er zijn veel manieren waarop u betrokken kunt raken en een verschil kunt maken om kindermishandeling te voorkomen. Kom in actie en kies de manier om bij te dragen die voor u het beste werkt.

Publish modules to the "offcanvs" position.