regulering
AI-giganter støtter alternative reguleringsforslag
Mens OpenAI vil ha vannmerking, vil Elon Musk ha
OpenAI, Adobe og Microsoft har gitt sin støtte til et lovforslag i California som krever at teknologiselskaper merker AI-generert innhold med vannmerker, ifølge brev fra selskapene som TechCrunch har fått tilgang til.
Forslaget, kjent som AB 3211, er nå på vei til en siste avstemning i august.
Lovforslaget krever at AI-genererte bilder, videoer og lydklipp får vannmerker i metadataene. Selv om mange AI-selskaper allerede gjør dette, er det få som faktisk leser metadata.
AB 3211 går derfor et skritt videre ved å kreve at store nettplattformer, som Instagram eller X, merker AI-generert innhold på en måte som er lett forståelig for gjennomsnittsbrukere.
Elon Musk har ikke støttet forslaget, men i stedet, og overraskende for noen, gitt offentlig støtte til et alternativ.
– Dette er en vanskelig avgjørelse som vil gjøre noen mennesker opprørte, men alt tatt i betraktning, tror jeg California bør vedta SB 1047 AI-sikkerhetsloven, skrev Musk på X mandag ettermiddag. Han understreket at han har vært en forkjemper for AI-regulering i over 20 år, på samme måte som vi regulerer andre produkter eller teknologier som utgjør en potensiell risiko.
Musk, som driver AI-selskapet xAI, vil selv være underlagt kravene i SB 1047, til tross for at han tidligere har uttalt at han planlegger å forlate California. Han har tidligere advart om farene ved ukontrollert AI.
SB 1047 prøver å forhindre at store AI-modeller brukes til å forårsake «kritisk skade» mot menneskeheten.
Lovforslaget gir eksempler på «kritiske skader» som en dårlig skuespiller som bruker en AI-modell for å lage et våpen som resulterer i masseskader, eller instruerer en til å orkestrere et nettangrep som forårsaker mer enn $500 millioner i skader (til sammenligning er CrowdStrike-bruddet estimert å ha forårsaket oppover 5 milliarder dollar). Lovforslaget gjør utviklere – det vil si selskapene som utvikler modellene – ansvarlige for å implementere tilstrekkelige sikkerhetsprotokoller for å forhindre utfall som disse.