regulering

AI-giganter støtter alternative reguleringsforslag

Mens OpenAI vil ha vannmerking, vil Elon Musk ha 

Elon Musk vil ha en spesifikk AI-regulering.
Publisert

OpenAI, Adobe og Microsoft har gitt sin støtte til et lovforslag i California som krever at teknologiselskaper merker AI-generert innhold med vannmerker, ifølge brev fra selskapene som TechCrunch har fått tilgang til. 

Forslaget, kjent som AB 3211, er nå på vei til en siste avstemning i august.

Lovforslaget krever at AI-genererte bilder, videoer og lydklipp får vannmerker i metadataene. Selv om mange AI-selskaper allerede gjør dette, er det få som faktisk leser metadata. 

AB 3211 går derfor et skritt videre ved å kreve at store nettplattformer, som Instagram eller X, merker AI-generert innhold på en måte som er lett forståelig for gjennomsnittsbrukere.

Elon Musk har ikke støttet forslaget, men i stedet, og overraskende for noen, gitt offentlig støtte til et alternativ. 

– Dette er en vanskelig avgjørelse som vil gjøre noen mennesker opprørte, men alt tatt i betraktning, tror jeg California bør vedta SB 1047 AI-sikkerhetsloven, skrev Musk på X mandag ettermiddag. Han understreket at han har vært en forkjemper for AI-regulering i over 20 år, på samme måte som vi regulerer andre produkter eller teknologier som utgjør en potensiell risiko.

Få gratis nyhetsbrev

Abonner på Shifters nyhetsbrev for de siste nyhetene, trendene og analysene.

Musk, som driver AI-selskapet xAI, vil selv være underlagt kravene i SB 1047, til tross for at han tidligere har uttalt at han planlegger å forlate California. Han har tidligere advart om farene ved ukontrollert AI.

SB 1047 prøver å forhindre at store AI-modeller brukes til å forårsake «kritisk skade» mot menneskeheten.

Lovforslaget gir eksempler på «kritiske skader» som en dårlig skuespiller som bruker en AI-modell for å lage et våpen som resulterer i masseskader, eller instruerer en til å orkestrere et nettangrep som forårsaker mer enn $500 millioner i skader (til sammenligning er CrowdStrike-bruddet estimert å ha forårsaket oppover 5 milliarder dollar). Lovforslaget gjør utviklere – det vil si selskapene som utvikler modellene – ansvarlige for å implementere tilstrekkelige sikkerhetsprotokoller for å forhindre utfall som disse.